Mettre en œuvre les lignes directrices en matière d’éthique en IA
JF Gagné JF Gagné
20 septembre 13 min

Mettre en œuvre les lignes directrices en matière d’éthique en IA

Intégrer les standards établis par le Groupe d’experts indépendants de haut niveau sur l’IA de la Commission européenne dans le cadre du développement d’un produit de souscription d’assurances généré par l’IA

Initialement publié à titre privé pour les membres de la European AI Alliance Community

L’an dernier, j’ai eu l’honneur d’être le seul expert non Européen choisi pour contribuer, à la fois en tant que Canadien et en tant qu’entrepreneur en technologie de l’IA, aux travaux du Groupe d’experts de haut niveau sur l’IA (GEHN IA) créé par la Commission européenne. En avril, nous avons publié notre plus récente version des Lignes directrices en matière d’éthique pour une IA digne de confiance.

Le véritable succès de ces lignes directrices a été d’établir un pont entre les droits humains et les standards de l’industrie. Ces lignes directrices sont issues d’une approche centrée sur l’humain, éclairées par ce dernier et par les droits fondamentaux tels que la dignité, la liberté, l’égalité et la justice. Bien que quelques recommandations feront sans doute l’objet d’une certaine contestation par quelques pays et au sein de quelques cultures, je crois qu’elles constituent jusqu’à maintenant la meilleure référence pour établir un cadre de travail international pour guider le développement de l’IA. L’IA ne peut être contenue à l’intérieur des frontières géopolitiques, et nous avons besoin de principes et d’exigences éthiques qui respectent les concepts faisant la promotion de la valeur intrinsèque de l’être humain, peu importe où il se situe dans le monde.

Mon rôle au sein du GEHN IA était de coprésider le groupe qui a créé les sept exigences clés pour les travailleurs de l’IA. Chaque exigence ne s’aligne pas nécessairement avec une étape spécifique du développement et du déploiement d’un produit d’IA. Celles-ci forment plutôt un cadre de référence grâce auquel on peut observer un processus dans son ensemble afin d’évaluer ses faiblesses et juger de la nécessité de se protéger contre des violations possibles de droits humains. Plus loin dans ce texte, je détaillerai comment notre approche centrée sur l’humain s’harmonise avec les sept exigences en ce qui concerne notre produit de souscription en assurances, et je montrerai aussi comment elle contribue à amoindrir les impacts sur les consommateurs. Notons qu’il y a encore beaucoup de travail à faire pour déterminer comment une conception centrée sur l’humain sera concrètement utilisée pour soutenir les droits des assurés dans cette industrie.

En tant qu’entrepreneur, mon travail de peaufinage des exigences serait inutile si je ne pouvais pas également montrer comment elles s’incarnent dans nos produits. Chez Element AI, nous n’avons pas complètement implanté les exigences, puisqu’elles viennent tout juste d’être publiées, mais notre approche fait écho à l’esprit général des lignes directrices, qui misent sur cette approche centrée sur l’humain. En créant nos produits d’IA pour des entreprises de différentes industries, nous avons trimé dur pour en arriver à des produits pour les travailleurs et les travailleuses, en améliorant les tâches d’une manière qui conserve leur autonomie et leur contrôle sur le résultat final.

Des produits d’IA à intervention humaine

Chez Element AI, les lignes directrices ont permis de renforcer l’importance de créer des produits d’IA centrés sur l’humain qui supportent les gens dans l’accomplissement de leurs tâches et dans leur prise de décisions, de façon plus efficace et mieux informée. Les exigences des lignes directrices pour l’action humaine et le contrôle humain (ligne directrice 1), la transparence (ligne directrice 4) et le bien-être sociétal et environnemental (ligne directrice 6) résonnent particulièrement fort chez nous puisqu’elles s’alignent avec les valeurs et les objectifs de notre compagnie. Elles forment un point de référence précieux pour modeler et prioriser les caractéristiques du produit, pour établir des points d’interaction pour les utilisateurs, mais aussi pour trouver où un produit figure dans la gestion des tâches quotidiennes, et même pour se questionner sur le produit lui-même, à savoir si l’on doit oui ou non le créer.

Dans le cas de notre produit d’assurance, les exigences ont été prises en considération dès le début : le produit est conçu pour automatiser des tâches à faible valeur ajoutée et pour recommander des décisions seulement dans les situations où il sait avec confiance que les standards éthiques et les règles de l’industrie en matière de transparence (ligne directrice 4) seront atteints. Puisque le produit facilite le travail de souscription, les opérateurs peuvent se concentrer davantage à développer leur relation avec les courtiers et à améliorer leurs interactions avec les clients, en leur expliquant les décisions et en étant plus à l’écoute de leurs besoins (lignes directrices 1, 6).

Avec ses nouvelles capacités, le produit peut notamment numériser les demandes de soumissions, et lorsqu’il est assez confiant, segmenter automatiquement et assigner les dossiers au souscripteur approprié. Cette prise de décision automatisée se base sur des paramètres établis par un administrateur humain et donne une estimation du temps de traitement, du niveau de priorité du dossier et de la charge de travail, ainsi qu’un pouvoir de signature, un taux de conclusion de ventes et bien plus encore (ligne directrice 1). Une piste de vérifications est aussi disponible. Celle-ci fournit des explications sur les raisons du choix de segmentation et d’assignation de chaque dossier traité (ligne directrice 4)

Lorsqu’elle fait une recommandation, l’IA suggère des sources d’information qui ont été utiles pour des dossiers similaires dans le passé, ou bien elle propose un ordre de priorité dans lequel il faudrait réviser les sources de données. Ces recommandations aident les souscripteurs à prioriser l’information des demandes et des sources externes comme les banques de données (ligne directrice 4).

Quand le système n’est pas suffisamment confiant pour traiter automatiquement un dossier, il le signale afin que celui-ci soit révisé. Il explique pourquoi il n’est pas assez confiant, par exemple en mentionnant le ratio de conclusion de ventes, l’estimation du temps de traitement ou bien en relevant le manque d’information (ligne directrice 4).

Le souscripteur a un contrôle total sur le nombre de demandes qu’il souhaite voir être traitées automatiquement, par exemple en choisissant de ne pas automatiser les refus d’émettre des devis d’assurances, de telle sorte que tous les refus sont traités de vive voix (préservant ainsi la relation souscripteur / courtier). Même à un haut niveau d’automatisation, le système peut signaler les prédictions moins fiables, les dossiers à haut risque et il peut aussi, si les données entrées sont incomplètes ou qu’elles manquent de clarté, signaler au souscripteur qu’il faudrait faire un suivi pour de plus amples vérifications. De même, toutes les recommandations faites en fonction de décisions prises par un humain sont accompagnées d’un niveau de confiance (ligne directrice 2). Du côté du client, rien de tout cela ne change le droit de faire appel à la suite d’une décision, que celle-ci soit humaine ou automatisée (ligne directrice 4).

La valeur commerciale concrète créée par le produit a ses propres retombées sociétales (ligne directrice 6) : Baisse des temps de délai, opérateurs capables de fournir la bonne assurance aux compagnies en fonction du calendrier désiré, et réduction de la quantité de clients non-assurés grâce aux recommandations de couvertures appropriées par notre produit de souscription (ligne directrice 6).

L’éthique dans le développement des produits d’IA

La robustesse et les contrôles de sécurité sont essentiels pour les produits qui gardent une intervention humaine et ces concepts sont bien enracinés dans le processus de création (ligne directrice 2). La confluence des nombreux flux de données utilisées contribue à la régularité dans la prise de décisions, en donnant une perspective plus générale, ce qui favorise l’équité et réduit les biais dans la prise de décisions (ligne directrice 5).

Nos produits d’assurance sont conçus pour interagir avec la banque de données de chacun des clients, et s’assurent de respecter les standards de confidentialité et de gouvernance des données auxquels ceux-ci doivent adhérer en vertu des lois en vigueur (ligne directrice 3). Le produit apprend à retenir et à transférer ce qu’il fait d’un souscripteur à l’autre, améliorant ainsi l’accessibilité de l’information pour les souscripteurs juniors ou les experts en sinistre (ligne directrice 6).

Nous souhaitons créer des équipes de scientifiques de données possédant des expériences variées et provenant de cultures différentes afin d’élargir le plus possible leur champ d’action et d’éviter les biais dans nos ensembles de données. Cela permet à nos produits d’assurance d’avoir plus de perspective et d’en arriver à des décisions plus justes et plus constantes (ligne directrice 5). Nos équipes sont aussi constituées de sociologues qui ont de l’expérience en éthique, en conception de politiques et en anthropologie, et ceux-ci apportent une expertise dans la détection de biais et d’impacts sociaux nocifs, et plus encore, ils peuvent proposer les solutions qui s’imposent (lignes directrices 5,6).

Toutefois, plus de solutions sont requises afin d’être en mesure de conserver ces standards dans toute la panoplie possible de scénarios d’utilisation et de partage des données. Nous avons collaboré avec NESTA afin d’identifier des solutions appropriées et nous nous sommes concentrés sur les fiducies de données pour améliorer notre gouvernance des données. Les fiducies de données pourraient être utilisées pour donner aux individus plus de contrôle sur leurs informations confidentielles, et aussi leur permettre de définir le concept toujours en évolution des droits numériques, le tout dans une approche ascendante (lignes directrices 3, 7).

Ligne directrice 7: L’épineuse question de la responsabilisation en IA

La septième ligne directrice et la dernière exigence est la responsabilisation, ce qui comprend l’auditabilité, la réduction au minimum des incidences négatives et la communication à leur sujet, ainsi que les arbitrages et les recours. Chez Element AI, définir la responsabilisation avec nos clients est un processus capital. Pour nous, l’IA n’est pas un outil que seuls les grandes entreprises utilisent; nous voulons que les consommateurs s’engagent avec l’IA et qu’ils prennent part à son développement, et nous croyons que cela va de pair avec l’approche centrée sur l’humain qui est au cœur des lignes directrices. C’est un défi parce qu’en ce moment, pratiquement aucune organisation n’est prête à reconnaître les nouvelles obligations qui viennent avec la responsabilisation qui était traditionnellement l’affaire du créateur. Avec l’IA, c’est pourtant nécessaire.

Nous fournissons des outils qui se sont entrainés à l’aide d’ensembles de données, bien que ceux-ci poursuivront leur apprentissage à partir des nouveaux ensembles de données annotées de nos clients. La façon dont les données sont annotées mènera le produit à prendre de nouvelles décisions et à faire des recommandations différentes, dynamisant ainsi la performance du modèle (pour le meilleur ou pour le pire). Nous avons participé à une grande part de l’apprentissage de nos produits et nous avons développé des accords communs avec nos clients afin de définir clairement où commence la responsabilisation de l’un et où commence celle de l’autre.

La façon dont cette responsabilisation sera gérée est en à ses débuts, autant pour nos clients que pour nous. À cause de nos valeurs et de notre jeunesse en tant que compagnie, nous sommes en mesure d’appliquer les lignes directrices dans ce nouveau contexte, sans avoir à nous soucier du poids de certaines traditions qui peuvent peser sur d’autres compagnies.

Prochaines étapes

Les lignes directrices ne devraient en aucun cas être considérées comme des solutions toutes faites; il est clair qu’il reste encore beaucoup de travail à faire afin de définir la façon dont celles-ci seront mises en pratique et adoptées dans le monde réel. Cela vaut pour Element AI également. La question de la mécanisation de la sécurité est très délicate, et cela sera sans doute la chose à plus dure à réaliser. Les lignes directrices, toutefois, sont un premier pas fabuleux dans la quête d’un langage commun et de principes élémentaires, et nous devons les améliorer au fur et à mesure que nous continuons d’innover sur le terrain.



Appendice: Les 7 exigences des parties prenantes en IA, telles que présentées dans les Lignes directrices en matière d’éthique pour une IA digne de confiance

  1. Le facteur humain et contrôle humain, en premier lieu, repose sur le respect des droits fondamentaux et des droits de la personne, et sur la nécessité pour l’IA de faciliter l’intervention humaine.
  2. Robustesse et sécurité techniques : porte sur le développement du système d’IA et met l’accent sur la résilience de ce dernier par rapport à des attaques externes ainsi que sur les défaillances internes (ex : une perturbation de la fiabilité du système).
  3. Respect de la vie privée et gouvernance des données : cette exigence permet d’établir un pont entre les responsabilités des développeurs du système et les responsables de son déploiement. Elle aborde des questions clés, comme la qualité et l’intégrité des données utilisées lors du développement du système d’IA, ainsi que la nécessité de garantir le respect de la vie privée tout au long du cycle de vie du système. 1
  4. La Transparence exige que les décisions techniques et humaines soient intelligibles et traçables.
  5. Diversité, non-discrimination et équité : cette exigence permet de s’assurer que le système d’IA est accessible à tous. Il s’agit, par exemple, d’éviter les partis pris et le recours à une approche unique, tout en adoptant des principes de conception universels.
  6. Bien-être sociétal et environnemental : cette exigence est la plus vaste et englobe nos plus grandes parties prenantes : la société à l’échelle mondiale et l’environnement. Elle vise, d’une part, la nécessité de créer une IA durable et écologique et, d’autre part, ses effets sur le processus démocratique.
  7. Responsabilisation : la dernière exigence vient compléter toutes les précédentes, car elle est pertinente avant, pendant et après le développement et la mise en œuvre du système d’IA.