Contrôle du respect des droits de la personne appuyé par l'IA
Sherif Elsayed-Ali Sherif Elsayed-Ali
17 octobre 5 min

Contrôle du respect des droits de la personne appuyé par l'IA

Ce billet de blogue a été rédigé avec Tanya O’Carroll d’Amnestie Tech et fait suite à notre nouveau livre blanc sur l’effet potentiel que les technologies de l’IA (intelligence artificielle) pourraient avoir sur le domaine du contrôle du respect des droits de la personne, élaboré en collaboration avec Amnistie internationale.

Vous pouvez consulter le livre blanc ici.

L'intelligence artificielle (IA) est certainement une technologie très puissante. Elle est aussi largement incomprise et mal présentée. Ce n'est pas une solution miracle, elle ne peut pas résoudre les problèmes par elle-même ou remplacer l'ingéniosité et l'adaptabilité humaines. L'IA d'aujourd'hui, aussi avancée soit-elle, ne remplace pas les gens. Ce qu'elle peut bien faire, c'est accroître la capacité des gens à faire leur travail, et à le faire mieux, plus rapidement et à une échelle jamais atteinte auparavant. Bien utilisée, l'IA peut avoir un effet transformateur.

Lorsque l'IA n'est pas à la hauteur des attentes des gens, c'est souvent parce qu'elle a été survendue. Dans un monde où le discours populaire sur l'IA est dominé par des images de robots qui deviennent sensibles et se rebellent contre l'humanité, ou rendant les emplois redondants, il est facile que la crainte vis-à-vis de l'IA devienne disproportionnée.

Nous avons été impliqués à l'intersection de la technologie et des droits de la personne pendant des années et, honnêtement, nous avons eu notre part de déceptions et de faux pas. Le domaine de la technologie pour le bien a été assailli par plusieurs problèmes, beaucoup d'entre eux reflétant les problèmes rencontrés par les nouvelles technologies dans les affaires. D'autres sont très spécifiques au domaine. Nous en énumérons ici brièvement les principales :

  • La technologie en tant que sauveur : c'est la croyance erronée que les nouvelles technologies peuvent facilement résoudre des problèmes complexes. Oui, les nouvelles technologies peuvent faire naître des choses qui n'étaient pas possibles auparavant, mais lorsque les problèmes impliquent des systèmes sociaux, juridiques et économiques complexes, les applications technologiques les plus sophistiquées échoueront à elles seules — à chaque fois.
  • Passer de la démonstration de faisabilité au déploiement à grande échelle : une démonstration de faisabilité et/ou un petit projet pilote sont souvent là où les technologies pour le bien démarrent. Elles servent principalement à démontrer ce qui est technologiquement possible, mais même lorsqu'elles réussissent, la plupart des organisations ont de la difficulté à les transformer en applications pleinement déployées. Le saut depuis la démonstration de faisabilité, en matière de ressources humaines, de financement et d'infrastructure, n'est souvent pas bien anticipé ou planifié. D'ailleurs, même si les investisseurs peuvent être enthousiastes à l'idée de fournir un financement de démarrage, ils se montrent souvent réticents à soutenir le déploiement complet ou la mise à l'échelle. Un bon exemple est le projet Panic Button d'Amnistie internationale, dans le cadre duquel nous avons fait une analyse complète ici (en anglais seulement).
  • Échec de l'intégration : les nouvelles applications technologiques nécessitent généralement de nouveaux processus et peuvent être perturbatrices. Lorsqu'elles sont bien faites, elles se traduisent par une productivité et une efficacité accrues. Mais le changement dans les flux de travaux et les dépendances doit être bien géré pour que le déploiement soit un succès. Ne pas y arriver rendra généralement les utilisateurs frustrés et ils finiront par trouver des moyens d'éviter la nouvelle technologie.

L'IA peut apporter des avantages importants dans le domaine des droits de la personne. Grâce à la collaboration qui a donné naissance au présent document, nous nous sommes efforcés de cibler les principales possibilités d'utilisation de l'IA dans le domaine du contrôle du respect des droits de la personne, et d'esquisser des initiatives ambitieuses mais réalisables pour de nouvelles approches du contrôle du respect des droits de la personne qui exploitent la disponibilité de quantités considérables de données et le pouvoir des techniques d'apprentissage machine.

Le monde est confronté à de grands défis en matière de droits de la personne : la crise climatique, la diffusion de politiques racistes et xénophobes, les conflits insolubles et la pauvreté extrême, pour n'en citer que quelques-uns. L'IA ne résoudra pas ces problèmes, mais elle peut contribuer à trouver des solutions.

En fin de compte, nous aimerions voir des outils d'IA de haute qualité, réutilisables et évolutifs qui apporteraient une contribution significative au travail des défenseurs des droits de la personne dans le monde. Cela nécessitera une collaboration entre la communauté des droits de la personne, les chercheurs en intelligence artificielle et en apprentissage machine, les organisations des secteurs privé et public et les investisseurs.

Pour tirer parti du potentiel de l'IA en matière de protection des droits de la personne, il faut prendre grand soin de veiller à ce que le développement et l'utilisation de ces applications respectent les droits de la personne. Comme pour tout nouveau domaine, il n'existe pas encore de modèle ou de manuel de règles sur la façon de faire, mais un ensemble évolutif de principes et de lignes directrices offre une voie à suivre.

Nous ne faisons qu'effleurer la surface de ce qui est possible. Nous invitons les chercheurs sur les droits de la personne et l'intelligence artificielle à mettre à profit et à améliorer les idées contenues dans ce document.

Tanya O’Carroll est directrice d’Amnestie Tech chez Amnistie internationale.

Sherif Elsayed-Ali est directeur des partenariats d’IA pour le bien chez Element AI.