Appuyer une IA respectueuse des droits de la personne
Phil Dawson Phil Dawson
26 novembre 7 min

Appuyer une IA respectueuse des droits de la personne

On s’attend à ce que l’intelligence artificielle (IA) génère d’importantes retombées sociales et économiques; de la transformation de la productivité des entreprises en passant par la progression des objectifs de développement durable. Toutefois, des exemples récurrents d’impacts problématiques de l’usage de l’IA – tel que dans le système de justice pénale, les services de police prédictifs, les systèmes de prestations publiques, les programmes de surveillance ciblés, la publicité et la désinformation – ont souligné à quel point l’utilisation abusive de l’IA représente une menace existentielle aux droits universels. Ces droits comprennent le droit à la vie privée, le droit à l’égalité et à la non-discrimination, le droit à la liberté de réunion pacifique, le droit à la liberté d’expression, à la liberté d’opinion, à la liberté d’information et, dans certains cas, même le droit à la démocratie.


Au cours des dernières années, une série d’initiatives politiques ont fait1 avancer la gouvernance en matière d’IA, mais trop peu d’entre elles se sont penchées sur les impacts de l’IA sur les droits de la personne, et ce malgré un nombre grandissant d’études et de recommandations de la part d’éminents chercheurs, de la société civile et d’organisations internationales.2 En

octobre 2019, Element AI s’est associée à la Fondation Mozilla et à la Fondation Rockefeller pour organiser un atelier sur l’approche de gouvernance de l’IA axée sur les droits de la personne, afin de déterminer quelles mesures concrètes pourraient être prises à court terme pour faire en sorte que les droits de la personne soient respectés dans la conception, le développement et le déploiement des systèmes d’IA. Des experts mondiaux des domaines des droits de la personne, du droit, de l’éthique, des politiques publiques et de la technologie y ont participé. Le présent rapport résume les discussions de l’atelier et comprend une liste des recommandations issues de la réunion.

Dans ce rapport :

Les principales recommandations du rapport consistent notamment à faire en sorte que la diligence raisonnable en matière de droits de la personne et que les études de portée sur les droits de la personne fondées sur la Déclaration universelle des droits de la personne et les Principes directeurs des Nations Unies relatifs aux entreprises et aux droits de la personne, deviennent une exigence réglementaire. Dans un premier temps, celles-ci devraient s’appliquer dans le contexte de l’approvisionnement public des systèmes d’IA; et dans un deuxième temps, dans le secteur privé, plus particulièrement là où les risques pour les droits de la personne liés à l’IA peuvent avoir une incidence importante sur les intérêts financiers, la santé personnelle ou le bien-être des individus, ou encore lorsque des mineurs sont impliqués. Le rapport recommande que les politiques industrielles appuient cette approche, par exemple en créant de nouveaux programmes de dépenses directes adaptés pour aider à assurer que la conception et les fondements technologiques de l’IA respectueuse des droits, tel que la transparence, l’explicabilité et la responsabilité, soient bien établis dans les secteurs clés.

Le rapport examine également le rôle potentiellement transformateur qu’un groupe d’investisseurs pourrait jouer dans le façonnement d’un nouvel écosystème d’entreprises technologiques. Enfin, le rapport recommande que les gouvernements travaillent activement à renforcer les capacités en matière d’IA afin d’accélérer la compréhension de la façon dont le cadre législatif et réglementaire existant peut être appliqué pour assurer le respect des droits de la personne, et de cerner les lacunes éventuelles où des ajustements pourraient être nécessaires. Cela pourrait se traduire par la création d’un nouveau centre d’expertise sur l’IA, qui pourrait servir de source d’expertise en matière de politiques, d’éducation et de renforcement des capacités au sein des ministères responsables de l’élaboration des politiques, des organismes de réglementation, de l’industrie et de la société civile.


télécharger le rapport

Pourquoi c’est important :

Les risques liés aux droits de la personne dans l’IA minent le potentiel de la technologie à produire des retombées sociales et économiques positives. Notre rapport s’inscrit dans la foulée des efforts croissant axés sur les risques liés aux droits de la personne en matière de gouvernance de l’IA. Ce rapport contribue à un nombre grandissant d'initiatives visant à combler le «fossé des droits humains» en matière de gouvernance de l'IA, notamment:

Cela dit, il reste encore beaucoup à faire. Si vous souhaitez en connaître plus sur ce projet ou si vous avez des idées de collaboration, veuillez envoyer un courriel à philip.dawson@elementai.com.

------------------------------------------------------------------------------------------

1On fait ici référence notamment aux stratégies nationales d'IA; aux cadres éthiques tels que la Déclaration de Montréal pour un développement responsable de l'intelligence artificielle, qui a été élaborée à la suite d'une vaste consultation publique; à l'élaboration de normes techniques par des organismes de développement de standards tel que l'IEEE et l'ISO; au travail du groupe d'experts de haut niveau de la Commission européenne concernant les lignes directrices en matière d'éthique pour une IA digne de confiance ainsi que les recommandations en matière de politique et d'investissement pour une IA digne de confiance; au Forum économique mondial et au Partenariat sur l'IA qui ont dirigé une série de projets visant à guider la conception, l'élaboration et le déploiement de systèmes d'IA éthiques ou responsables; et, à la suite de l'élaboration des Principes sur l'intelligence artificielle approuvés par le G20, l'Organisation de coopération et de développement économiques (OCDE) se prépare maintenant à lancer l'Observatoire des politiques en IA pour aider les pays à « encourager, alimenter et surveiller le développement responsable de systèmes d'IA dignes de confiance au service de la société ».

2Latonero, M. Governing Artificial Intelligence: Upholding Human Rights & Dignity, Data & Society, 10 october 2018; Access Now, Human Rights in the Age of Artificial Intelligence, 8 novembre 2018; McGregor, L., Murray, D., & Ng, V. (2019). International Human Rights Law as a Framework for Algorithmic Accountability. International and Comparative Law Quarterly, 68(2), 309-343; Donahoe, E., Metzger. M. Artificial Intelligence and Human Rights. Journal of Democracy, vol. 30 n° 2, 2019, p. 115-126; Conseil de l'Europe, Responsibility and AI: A study of the implications of advanced digital technologies (including AI systems) for the concept of responsibility within a human rights framework, 9 octobre 2019; Australian Human Rights Commission, World Economic Forum. White Paper: Artificial Intelligence: governance and leadership, 2019.