L'intelligence artificielle et les droits de la personne : prendre les risques réels de l'IA
Sherif Elsayed-Ali Sherif Elsayed-Ali
13 août 12 min

L'intelligence artificielle et les droits de la personne : prendre les risques réels de l'IA

Si vous ne lisez que les nouvelles, vous pourriez penser que l'intelligence artificielle possède un esprit qui lui est propre. Les risques qui font la une des journaux semblent tirés des films de science-fiction, et non de la pratique actuelle de l'IA moderne, ce qui nous amène à nous concentrer sur des problèmes et des solutions erronés. Pour bien gérer les risques de l'IA, nous devons nous concentrer sur les personnes et les organisations qui l'utilisent et sur les décideurs qui conçoivent l'avenir de la réglementation de l'IA.

Tout d'abord, considérons un point critique : un système d'IA n'est pas un acteur indépendant. L'IA est un logiciel. Un logiciel qui peut évoluer avec le temps et s'adapter à son environnement. Il est souvent plus puissant et plus efficace que les logiciels traditionnels pour effectuer de nombreuses tâches, mais les deux sont conçus et développés par des humains. L'IA est un outil, et le plus grand risque réside dans la façon dont il est utilisé. Et l'IA n'est pas notre premier système décisionnel; elle partage les risques liés d’autres approches, y compris les logiciels “rules-based”et l'intuition humaine.

Du point de vue des droits de la personne, certaines utilisations de l'IA, comme l'hypertrucage, (vidéos truquées, utilisant des fausses images et un audio modifié pour paraître réels) et les armes létales autonomes (drones ayant la capacité de choisir et atteindre des cibles), posent des défis spécifiques, mais les résoudre n’est pas différent de la façon dont nous avons relevé des défis similaires dans le passé .

Les risques réels de l'IA

Malgré leur conception populaire, les systèmes d'IA modernes ne ressemblent en rien à leurs homologues de science-fiction. Il n'y a pas de robots ressemblant à Arnold Schwarzenegger, pas d'androïdes omniscients directement issus de Star Trek. Si vous voyez quelque chose qui ressemble et agit comme un androïde de film hollywoodien, voici ce que c'est : un tour de passe-passe coûteux et élaboré. Ces préoccupations sont exagérées, mais il existe des risques réels liés à L’IA,

Les biais sont une préoccupation importante pour les systèmes d'IA, car ils finissent souvent par répéter les tendances qu'ils observent dans les données. L'utilisation de l'IA pour filtrer les curriculum vitae peut finir par discriminer les femmes ou les minorités si les algorithmes s'inspirent de tendances observées chez les candidats retenus par le passé qui ne sont pas liés au rendement au travail, comme la race ou le sexe, et produisent des résultats qui reflètent ces biais. Un modèle d'apprentissage machine, s'il est déployé sans une compréhension adéquate et sans tenir compte des préjugés dans les données existantes, risque d'enraciner les inégalités existantes et, ce faisant, d'être peu efficace dans sa tâche.

Pourtant, cet échec n'est pas propre à l'IA. Tout système décisionnel, y compris les systèmes purement humains et les logiciels “rules-based”, pourrait donner des résultats similaires. En effet, la prise de décision humaine est à l'origine du problème des biais systémiques existants. Oui, les logiciels basés sur l'intelligence artificielle présentent des défis spécifiques, comme le problème de la boîte noire où nous ne savons pas exactement comment une décision a été prise, et ces problèmes spécifiques nécessitent des tactiques d'atténuation spécifiquement adaptées. Tel est le cas de tout système : il présente des avantages et des inconvénients.

Alors que le discours public et politique est de plus en plus axé sur le risque de préjugés dans l'IA, une hypothèse sous-jacente est que les systèmes décisionnels non liés à l'IA sont impartiaux. C'est à la fois faux et dangereux, car les préjugés existants ne peuvent être ignorés. Si nous voulons vraiment gérer les risques de l'IA, nous devons examiner les processus humains qui les sous-tendent.

L'IA n'est pas un cas particulier

Nous ne devrions pas traiter l'IA comme un cas particulier dans notre façon de considérer l'imputabilité dans les systèmes décisionnels. La responsabilité de la prise de décision incombe aux personnes et aux organisations : celles qui mettent en place les processus décisionnels et les mécanismes pour traiter (ou non) avec ces systèmes lorsqu'ils échouent. L'IA fait partie du processus; ce sont les humains et les institutions qui portent la responsabilité des résultats.

Chacun de ces systèmes, humains ou autres, comporte de multiples points de défaillance. Les humains sont un point de défaillance courant : les gens peuvent prendre de mauvaises décisions lorsqu'ils sont fatigués, stressés ou pressés par le temps. Nous avons tous nos biais inconscients et nous faisons parfois un mauvais travail.

Les logiciels, aussi, ont leurs problèmes. Certains logiciels traditionnels peuvent être trop rigides, avec des règles trop strictes qui peuvent tout aussi bien refléter les préjugés humains. De simples erreurs de codage peuvent également constituer un problème, comme la panne de service généralisée du 911 dans six États américains en 2014.

Les systèmes alimentés par l'IA présentent de nombreux défis, incluant les biais. Ils peuvent également devenir inexacts lorsque leur environnement opérationnel change. L'expérience de Google consistant à suivre les tendances de la grippe au moyen des données de recherche en est un exemple, où l'algorithme serait efficace au départ et perdrait en précision après quelques années. En 2013, la prévalence réelle de la grippe a été erronée de 140 %, et l'algorithme lui-même avait commencé à chercher des termes sans lien avec le début de la saison grippale à la fin de l'automne, comme « basketball au secondaire ».

Tout système, physique ou numérique, finit par échouer. Ce que nous pouvons faire, c'est comprendre comment et quand les défaillances sont susceptibles de se produire et concevoir des systèmes décisionnels pour les atténuer. Cela pourrait signifier une surveillance humaine des systèmes automatisés, dans la mesure où nous nous assurons qu'il existe des mécanismes d'examen pour les systèmes basés sur les humains : processus d'appel dans les décisions judiciaires et administratives, examens par les pairs, audits, etc.


L'IA n'est pas un cas particulier, mais certains points de défaillance spécifiques doivent être traités différemment. Par exemple, étant donné que l'apprentissage machine est probabiliste, une organisation utilisant un système d'IA doit décider du seuil d'identification ou de décision positive (ou négative) en fonction des conséquences probables d'une décision erronée. Lorsque vous utilisez des systèmes d'IA, il est important de tenir les décideurs humains au courant afin qu'ils puissent examiner les décisions lorsque le niveau de confiance est inférieur à un certain seuil acceptable.

Si traiter avec des probabilités et des niveaux de confiance donne l’impression de brimer les droits de la personne parce qu'il manque de certitude, c'est que nous n'examinons pas la question par rapport aux autres systèmes. En réalité, nous nous fions à des niveaux de probabilité et de confiance tout au long de notre vie; c'est une partie tellement naturelle de ce que nous sommes que nous n'y pensons pas.

Pensez au moment où vous cueillez un fruit, traversez la rue ou décidez pour qui voter lors d'une élection : vous ne savez pas avec certitude que le fruit sera bon, qu'une voiture ne sortira pas soudainement de nulle part ou que le candidat pour lequel vous votez sera compétent. Mais vous basez votre décision sur l'information préalable, les observations actuelles et votre évaluation des résultats. Des recherches récentes indiquent que la prise de décision humaine pourrait être encore plus mystérieuse, et pourrait être mieux expliquée par la modélisation quantique (voir aussi cet article récent de la revue Nature – en anglais seulement).

L'IA et les droits de la personne

Les questions que nous posons en matière d’IA et de droits de la personne ne devraient pas être différentes de celles que nous posons au sujet des répercussions des autres systèmes. Les répercussions d'un système, physique ou numérique, dépend de la façon dont il est utilisé. Nous devrions nous concentrer sur qui a développé le système, pour quelle utilisation, ses capacités et ses limites, les processus et la responsabilité dans lesquels le système est intégré, comment et où le système peut échouer, et finalement, qui est responsable du système.

Grâce à ces informations, nous pouvons évaluer l'incidence probable sur les droits de la personne et répondre à des questions clés :

  • Existe-t-il des risques de brimer des droits de la personne et, dans l'affirmative, où sont-ils?
  • Quelles mesures de protection devraient être mises en place pour atténuer les risques potentiels des droits de la personne?
  • Dans le contexte du respect et de la protection des droits de la personne, est-il approprié d'utiliser le système?

Les systèmes d'IA ne constituent pas un cas particulier lorsqu'il s'agit d'évaluer l'incidence sur les droits de la personne. Lorsque nous examinons l'incidence de l'IA sur les droits de la personne, nous devons l'évaluer dans le contexte des systèmes existants : est-ce qu'elle améliore ou aggrave les résultats en matière de droits de la personne, comparativement à l'alternative? Pour obtenir les meilleurs résultats en matière de droits de la personne, nous devrions soumettre différents systèmes au même niveau d'examen.

Les hypertrucages sont un exemple où les systèmes d'IA présentent un risque élevé pour les droits de la personne. Ces contrefaçons sophistiquées, qui utilisent des algorithmes d'IA pour imiter la réalité tout en pouvant représenter ce que le créateur souhaite, peuvent perturber les processus démocratiques et menacer les droits à la vie privée et à la dignité ainsi que la confiance fondamentale en l'information. La façon dont cela est fait est nouvelle, mais ces menaces liées à la manipulation de l'information ne sont pas nouvelles et ne se limitent pas à l'IA. Des images manipulées numériquement, des réseaux de trolls et des théories de conspiration ont longtemps été utilisés comme une arme contre les activistes et les politiciens.

Il existe des moyens techniques potentiels pour détecter les hypertrucages, et il existe des moyens réglementaires pour contrôler leur utilisation, tout en permettant des utilisations légitimes de la vidéo créée par IA (pensez par exemple aux acteurs de synthèse dans le secteur du divertissement). Sam Gregory, de l'ONG de technologie et de défense des droits de la personne, Witness, donne un excellent aperçu (en anglais seulement) des différents moyens disponibles.

Avec les armes létales autonomes, la vraie question est d'ordre moral, et elle ne peut être abordée que par la communauté internationale. Si nous automatisons la décision de recourir à la force meurtrière, nous pourrions rendre la guerre plus facile et supprimer la couche critique de responsabilité personnelle.

Les questions relatives à la précision de l'IA dans le choix d'une cible ou le tir d'une arme sont un terrain glissant : le ciblage humain et les armes de précision existantes ne sont pas connus pour leur infaillibilité. Si, un jour, les systèmes de ciblage de l'IA se révèlent objectivement et systématiquement plus fiables que le ciblage humain, que se passera-t-il? Plus important encore, les discussions sur le choix des armes ne permet pas d'avoir une vue d'ensemble : tous les conflits entraînent des violations des droits de la personne. Et c'est là que la communauté internationale peut aider.

En fin de compte, la question des armes létales autonomes est hors de propos. L'accent devrait être mis sur la réduction des conflits armés, notamment en réduisant l'accès aux technologies qui facilitent la participation à la guerre. Le droit international est le meilleur moyen de faire face à ce risque, par l'entremise d'une interdiction internationale des armes létales autonomes, à l'instar des interdictions existantes sur d'autres types d'armes.

La façon la plus efficace de gérer les risques humains liés à l'utilisation de l'IA est de se concentrer sur les personnes et les organisations qui en sont responsables, et non sur la technologie elle-même. Les questions de responsabilité pour l'utilisation (ou le mauvais usage) des systèmes d'IA peuvent ensuite être abordées dans les cadres existants en examinant les obligations des acteurs publics en matière de droits de la personne et les responsabilités des acteurs privés. Ce sont les gens, pas les machines, qui comptent.

------------------


Sherif Elsayed-Ali a commencé à écrire sur l'incidence de l'IA sur les droits de la personne en 2017, par exemple ici, ici et ici (en anglais seulement). Il est coauteur de l'un des premiers documents importants (en anglais seulement) sur l'application des normes relatives aux droits de la personne à l'IA, et a amorcé le processus qui a mené à la Déclaration de Toronto. Au cours des huit derniers mois, depuis qu'il s'est joint à Element AI, il a travaillé avec une équipe de chercheurs et d'ingénieurs logiciels en IA qui ont construit des outils pour l'apprentissage machine.