En quoi la gestion du risque de l’IA est-elle différente et que faire à ce sujet
Richard Zuroff Richard Zuroff
15 octobre 8 min

En quoi la gestion du risque de l’IA est-elle différente et que faire à ce sujet

En moins de 10 ans, l’intelligence artificielle (IA) est passée d’une activité scolaire à un investissement stratégique pour les entreprises. Des organisations de premier plan dans de nombreux secteurs commencent à faire rapport sur les déploiements réussis de l’IA.

Cependant, pour les organisations qui souhaitent utiliser efficacement l’IA, il est important de faire plus que d’être les premières à la table. Les entreprises qui bénéficieront le plus de l’IA sont celles qui peuvent gérer avec succès ses avantages – et ses risques.

Pour se préparer, les chefs d’entreprise doivent savoir que la gestion des risques liés à l’IA exige une approche différente de celle des technologies précédentes. Les organisations devraient s’organiser pour réussir en réunissant des équipes de gestion des risques, des équipes commerciales et des équipes techniques, en utilisant cinq stratégies clés pour tirer le meilleur parti de leurs efforts combinés.

Avec de grands pouvoirs viennent de nouveaux risques

Les systèmes d’IA posent de nouveaux défis pour la même raison qu’ils créent de nouvelles capacités puissantes. Contrairement aux systèmes à base de règles, configurés avec des instructions étape par étape, la logique des systèmes d’IA est façonnée par l’établissement de buts ou d’objectifs qui façonnent le processus de l’apprentissage machine. Le profil de risque unique des systèmes d’IA est qu’ils officialisent les compromis implicites nécessaires à l’atteinte de ces buts et objectifs – et qu’ils permettent d’accroître leur portée grâce à la prise de décisions automatisée.

Par exemple, un robot de nettoyage peut être programmé pour optimiser son parcours afin d’atteindre un niveau minimum de propreté dans les plus brefs délais. Spécifier l’objectif (maximiser la propreté et la vitesse) est beaucoup plus efficace que de définir manuellement des règles pour un itinéraire spécifique, surtout si les obstacles ou les endroits sales changent constamment. Le nettoyage le plus rapide possible risque de manquer certains endroits sales, tandis que le nettoyage parfait d’une pièce peut s’avérer prohibitif en matière de coûts. La performance du robot dépend de la façon dont il équilibre les objectifs concurrents de propreté et de vitesse dans le temps.

Les risques du nettoyage robotique sont relativement faibles, car les compromis de propreté et de rapidité sont faciles à spécifier et à surveiller. Cependant, dans un contexte d’affaires, les compromis qui doivent être équilibrés pour créer un résultat idéal sont plus complexes et il n’est pas aussi facile de surveiller le jugement d’une IA dans la prise de décision. Pour mettre en place des systèmes d’IA qui traduisent de façon fiable les données et les objectifs en bonnes décisions opérationnelles, les organisations doivent être prêtes à codifier le jugement implicite en choix explicites sur les informations, les perspectives et les conséquences prioritaires.

Par exemple, dans les endroits où la discrimination historique a façonné les modèles de revenu, de richesse et d’accession à la propriété pour différents groupes raciaux ou sociaux, quelle influence (le cas échéant) l’équité et l’impartialité devraient-elles jouer dans les décisions de prêt ou de crédit? Quel est le compromis mathématique précis entre le profit et l’équité pour lequel une IA devrait être programmée? Comment l’entreprise garantira-t-elle à elle-même, à ses clients et à ses organismes de réglementation que ces règles sont suivies correctement?

L’IA responsable est la responsabilité de tous

Les chefs d’entreprise doivent s’assurer que la conception et la mise en œuvre des applications d’IA reflètent des choix alignés sur les valeurs et les responsabilités de l’entreprise, même lorsque cela force l’organisation à faire face à des questions difficiles. Reconnaître que l’officialisation et l’élargissement de ces compromis créent des risques à gérer (qu’ils soient financiers ou liés à la réputation) est une première étape essentielle pour obtenir les meilleurs résultats avec l’IA.

Une fois cette première étape franchie, il est important que la gestion du risque de l’IA ne soit pas isolée à une seule équipe ou fonction dans l’entreprise. Les organisations qui commencent leur parcours d’IA comptent parfois sur les développeurs de modèles d’IA, en tant qu’experts internes, pour utiliser les meilleures pratiques. Une approche plus solide consiste à « faire confiance mais vérifier » en ayant une équipe indépendante (souvent située dans la fonction Risque) pour vérifier et valider la sécurité et la pertinence des modèles avant leur déploiement. Après le déploiement, cette équipe devrait également surveiller en permanence les modèles pour vérifier leur utilisation afin de déceler les effets de rétroaction négatifs, ce qui peut être particulièrement pernicieux pour les systèmes d’IA.

Toutefois, la gestion des risques ne doit pas être considérée comme la responsabilité exclusive d’une équipe de gestion des risques distincte. Les équipes commerciales et technologiques devraient également adapter leur utilisation de l’IA afin de réduire les risques grâce aux choix quotidiens que font les gestionnaires, les concepteurs et les créateurs quant à l’endroit, à la façon et aux raisons de développer et de déployer l’IA. Il faut tout un village.

Cinq stratégies pour gérer le risque de l’IA

Bien que les meilleures pratiques pour une bonne gouvernance de l’IA dans les grandes entreprises soient toujours en préparation, des mesures importantes peuvent être prises pour être des précurseurs responsables. Les organisations devraient dresser un inventaire complet de leurs risques et de leurs stratégies d’atténuation pour les cas d’utilisation de l’IA existants et prévus. Elles peuvent ensuite utiliser cette analyse des écarts pour concentrer les investissements sur le renforcement des processus (comme la validation des modèles), des politiques (comme tenir les gens au courant) et de la technologie (comme l’élaboration de modèles à l’aide des dernières techniques d’explicabilité).

Plus précisément, nous suggérons ces cinq stratégies :

  1. Inspirez-vous des pratiques de gestion des risques dans le secteur financier en mettant sur pied une équipe distincte pour effectuer la validation ponctuelle des nouveaux modèles, ainsi que la validation continue axée sur les risques accrus liés à l’IA, comme la dérive ou le biais.
  2. Augmentez la compréhension humaine des modèles et de leurs décisions par les utilisateurs et les autres parties prenantes afin de promouvoir une utilisation appropriée et de faciliter l’intervention humaine par une plus grande explicabilité et transparence.
  3. Considérez les avantages de la conservation des interventions humaines et de la sensibilité au contexte dans les boucles de traitement, en particulier si l’IA est utilisée pour la surveillance et l’analyse, afin d’éviter la logique trop étroite de l’optimisation de bout en bout.
  4. Explorez des modèles d’affaires qui utilisent des mécanismes non tarifaires et des algorithmes d’appariement pour permettre aux utilisateurs de définir leurs propres compromis lorsque des valeurs incommensurables sont en jeu.
  5. Adoptez une approche proactive et concertée du transfert des risques en recueillant et en partageant l’information dont les assureurs ont besoin pour souscrire une assurance d’IA et pour s’assurer que les dommages causés par les systèmes d’IA peuvent être compensés.

Ne vous retenez pas

La gestion des risques met fondamentalement l’accent sur le potentiel d’effet négatif, ce qui peut aller à l’encontre de l’esprit d’innovation qui entoure l’IA. Mais les grandes entreprises ne relèguent pas la gestion des risques à une fonction de conformité. Au lieu de cela, elles la voient comme un outil stratégique qui leur permet de faire des paris audacieux avec plus de confiance.

Il en va de même pour l’IA. Nous croyons qu’une gouvernance robuste de l’IA d’entreprise conduit à une utilisation accrue de l’IA, ce qui, à son tour, crée plus d’avantages pour les entreprises, leurs clients et leur société. En commençant dès maintenant, les organisations qui sont proactives en matière de gouvernance de l’IA peuvent accélérer leur transition de l’expérimentation de l’IA à son déploiement à grande échelle.

Si vous souhaitez en savoir plus sur la gestion des risques liés à l’IA, ou si vous avez besoin d’aide pour la mettre en œuvre, cliquez sur le bouton ci-dessous pour contacter notre équipe!