Une IA pour la personne que vous souhaitez devenir
Philippe Beaudoin Philippe Beaudoin
4 mars 15 min

Une IA pour la personne que vous souhaitez devenir

Nous sommes confronté·e·s à des enjeux extrêmement préoccupants pour l’espèce humaine à l’échelle mondiale. Il faut donc que nous coopérions tous pour déterminer ce dont le monde a besoin pour retrouver l’équilibre, redevenir durable et, finalement, prospérer.

La science est notre plus grande alliée dans cette entreprise, mais elle ne suffit pas. Seuls des efforts de collaboration délibérés et bien pensés peuvent nous mener à des résultats probants.

Mais, si la collaboration à l’échelle de la planète est un bel objectif, il nous est impossible de travailler ensemble de manière cohérente sans comprendre ce qui nous motive en tant qu’êtres humains. Pour résoudre des problèmes qui reposent sur l’action collective, nous devons découvrir ce qui nous stimule et ce que nous voulons vraiment : nos ambitions et nos espoirs personnels les plus profonds.

Cependant, cela ne suffirait probablement pas à nous comprendre. Car souvent, notre comportement n’est pas conforme à nos aspirations, et si nous sommes honnêtes avec nous-mêmes, je suis sûr que nous conviendrons tous qu’il existe une différence entre la personne que nous sommes et celle que nous souhaiterions être.

Ce dont le monde a besoin

Nous sommes donc confronté·e·s à deux gouffres : la différence entre ce que nous faisons et ce que nous voulons, et celle entre ce que nous voulons et ce dont le monde a réellement besoin.

Si nous voulons vraiment laisser à nos enfants un monde meilleur que nous l’avons trouvé, nous devrions faire du comblement de ces gouffres une priorité.

Certains disent que la technologie est la clé. Mais la solution aux problèmes mondiaux ne réside pas dans une meilleure version des codes existants, ni dans une amélioration des gadgets que nous construisons. Même si nous avons effectivement réalisé de grandes choses avec le matériel et les logiciels développés au cours des 40 dernières années, l’objectif en a rarement été l’avancement de l’humanité. Et bien que nous puissions construire de meilleurs systèmes satellites, des équipements agricoles plus efficaces ou des applications mobiles plus attrayantes, cela ne résout pas directement les gros problèmes auxquels nous sommes confronté·e·s.


Ce dont le monde a besoin

Libérer notre potentiel

La solution aux problèmes mondiaux réside en nous, l’humanité. En tant qu’êtres humains, nous sommes capables de repousser les limites lorsque nous donnons le meilleur de nous-mêmes. Attelons-nous à l’ouvrage et construisons des systèmes qui nous aident à atteindre cet objectif.

Nous sommes allé·e·s sur la lune avec des calculs manuels. Imaginez ce que nous pourrions faire avec une technologie qui nous aide à libérer notre potentiel.

Nous devrions chercher des moyens d’aider les gens à comprendre ce dont le monde a besoin et les encourager à vouloir atteindre ces objectifs. Nous devrions également trouver des moyens d’aider les gens à se comporter conformément à leurs aspirations.

Le premier objectif est du domaine de la politique et des priorités. Bien que le sujet soit important, il s’agit d’une discussion beaucoup trop large pour le cadre de cet article. Le deuxième objectif est celui qui nous intéresse ici. Car nos logiciels d’intelligence artificielle actuels augmentent souvent la distance entre ce que nous sommes et ce que nous aspirons à devenir.

En effet, les logiciels que nous avons développés au cours des 20 dernières années nous empêchent en réalité d’atteindre notre potentiel. Bien que ce soit involontaire, notre technologie est construite de manière à renforcer nos actions et comportements antérieurs, et non à les corriger pour réaliser ce que nous voulons ou pourrions être. Il nous faut adopter une nouvelle approche pour renverser cette tendance et faire de nos assistants d’IA un puissant allié dans notre quête d’un monde meilleur.

Nous savons que les logiciels d’intelligence artificielle sont puissants en termes de participation des utilisatrices et utilisateurs. Et si nous pouvions utiliser ce pouvoir pour nous aider à vivre la vie que nous voulons vivre?


Conçus pour le cerveau reptilien

Conçus pour le cerveau reptilien

Les systèmes d’intelligence artificielle prennent aujourd’hui leurs décisions en collectant d’énormes quantités de données. Nombre de ces systèmes sont conçus pour nous aider (en tant qu’utilisatrices et utilisateurs), et pour ce faire, ils ont besoin de collecter des données à notre sujet.

Pourtant, les seules données collectées par ces outils concernent ce que nous faisons lorsque nous les utilisons : ce sur quoi nous cliquons, les pages Web que nous visitons, les nouvelles que nous partageons, les applications sur lesquelles nous passons du temps.

Pour ces intelligences artificielles, les gens sont la somme de ce qu’ils font, et rien de plus.

Or, les comportements que nous adoptons lorsque nous interagissons avec nos outils technologiques sont presque toujours rapides, instinctifs, émotionnels. C’est le genre de comportements que les neuroscientifiques des années 1960 auraient attribués à notre cerveau reptilien. Ils émergent de ce que Daniel Kahneman appelle le « système 1 » dans son livre à succès Système 1/Système 2 : Les deux vitesses de la pensée. Le système 1 est rapide, instinctif et émotionnel. Les applications mobiles, les jeux vidéo et même les nouvelles télévisées tirent parti de ce mode de pensée.

Le logicien intérieur

Nous avons cependant une tout autre façon de penser, que Kahneman appelle le « système 2 ». C’est une forme de pensée plus lente, plus délibérée et plus logique.

C’est le système que nous appelons le « moi conscient ». Il est le gardien de nos convictions. Il nous permet d’effectuer des raisonnements complexes et de faire des choix conscients après avoir examiné les conséquences.

Fondamentalement, c’est la partie de nous qui peut surveiller notre propre comportement. Mais nous comptons rarement sur elle lorsque nous interagissons avec la technologie.

C’est parce que le système 2 nécessite de la concentration et du travail, alors que nous pouvons faire appel au système 1 presque sans effort.


Systemes de suivi

Des données incomplètes mènent à des vidéos de chats

Qu’est-ce que cela signifie pour nos systèmes d’intelligence artificielle? Aujourd’hui, ces systèmes reposent principalement sur l’apprentissage automatique et dépendent donc fortement des données auxquelles ils sont exposés.

Puisque nous nous reposons sur le système 1 dans la plupart de nos interactions avec la technologie, nos systèmes d’IA finissent par s’appuyer sur des données fortement biaisées en faveur des décisions que nous prenons de manière instinctive et émotive. Aucun effort n’est jamais fait pour rééquilibrer ces données d’entraînement, en considérant que les décisions que nous prenons instinctivement ne témoignent que d’une fraction de ce que nous sommes.

Concrètement, cette suralimentation de décisions instinctives et émotionnelles a de nombreuses conséquences désastreuses sur les systèmes d’intelligence artificielle.

Prenons un premier exemple : les vidéos de chat.

Si vous êtes comme moi et des milliards d’autres surfeurs sur Internet, vous trouvez les vidéos de chats adorables. Si un chaton mignon attire votre attention sur un site Web de vidéos, vous pouvez très bien cliquer dessus et roucouler de plaisir pendant que vous regardez ledit chaton sauter maladroitement à l’écran.

Il ne fait guère de doute que le système 1 est responsable de ce clic. Cependant, pour l’intelligence artificielle, il s’agit d’un autre point de données à ajouter à sa collection. Et l’intelligence artificielle en déduit que vous aimez passer votre journée à regarder des vidéos de chats mignons.

Ainsi, la prochaine fois que vous visiterez ce site Web, le moteur de recommandation vous proposera encore plus de chats mignons.

Si vous ne vous éloignez jamais de vos gadgets technologiques et ne réfléchissez pas à ce que vous regardez sur Internet, vous risquez de cliquer de plus en plus sur des vidéos de chats, et l’intelligence artificielle derrière ces recommandations pensera qu’elle fait bien son travail.

Naturellement, la plupart d’entre nous avons suffisamment de contrôle pour ignorer les vidéos de chat lorsque nous devons réellement travailler. Cependant, les effets de l’intelligence artificielle formée sur les comportements du système 1 peuvent être beaucoup plus insidieux.


Déluge de notifications

Déluge de notifications

Une étude récente du cabinet spécialisé en recherches Wonder a révélé que les utilisatrices et utilisateurs reçoivent en moyenne de 30 à notifications poussées par jour sur leur téléphone intelligent. En d’autres termes, votre téléphone vibre dans votre poche de 30 à 80 fois par jour, vous priant de le sortir et de regarder ce que vous venez de recevoir. Cela peut être un appel, un texto, un courriel, une mise à jour de statut sur Facebook ou autre chose.

Instinctivement, nous réagissons à cette vibration et regardons rapidement ce qui se trouve sur notre téléphone. C’est le système 1 en action.

Maintenant, si vous réagissez, le logiciel responsable de cette notification recueille encore un autre point de données. Même si vous ne cliquez pas sur la notification, il est tout à fait possible que le logiciel utilise les capteurs à inertie pour détecter que vous avez sorti votre téléphone de votre poche.

Tous ces signaux résultent de notre réaction instinctive à la vibration d’un téléphone. Cependant, ils pourraient tous être interprétés par un logiciel d’IA comme confirmant le fait que la notification était souhaitable.

Comme vous pouvez le constater, une intelligence artificielle formée à de tels comportements instinctifs est susceptible de nous pousser de plus en plus loin dans l’enfer des notifications.

L’exemple des vidéos de chats et celui des notifications montrent comment une IA formée aux comportements du système 1 peut avoir un effet négatif sur nos interactions personnelles avec la technologie. C’est déjà assez grave, mais les choses peuvent encore empirer si nous examinons l’impact de cette intelligence artificielle sur nos interactions sociales.


Chambres d’écho

Chambres d’écho

Dans un article publié en 2015 dans la revue Science, les chercheuses et chercheurs ont analysé les flux d’actualités de 10,1 millions d’utilisatrices et d’utilisateurs de Facebook qui se sont déclaré·e·s républicain·e·s ou démocrates. Ils ont constaté qu’environ 70 % des nouvelles vues sur Facebook étaient conformes à leurs opinions politiques. En d’autres termes, les chambres d’écho sont réelles.

Il n’est pas surprenant que les gens voient davantage de contenu qui leur correspond. Après tout, il est beaucoup plus tentant de cliquer sur « J’aime » ou de partager un article qui renforce nos convictions politiques.

L’acte d’aimer ou de partager des ressources découle pourtant souvent de la réaction émotionnelle que nous avons eue lorsque nous avons lu le message. Encore une fois, c’est un comportement qui peut être attribué à notre « système 1 ».

Ces comportements sont utilisés pour former l’IA derrière le fil de nouvelles Facebook personnalisé de chaque utilisatrice ou utilisateur. Les nouvelles auxquelles une personne est exposée dépendent donc largement de sa réaction émotionnelle aux nouvelles similaires précédentes.

Si, comme moi, vous estimez que la meilleure façon de se forger une opinion éclairée consiste à s’exposer à différents points de vue et à garder l’esprit ouvert, vous pouvez essayer de contrôler chacun de vos clics et de faire très attention aux liens que vous suivez. Mais cette approche risque d’échouer elle aussi, étant donné que tout ce que vous voyez dépend du comportement de vos ami·e·s sur le réseau social. En fait, il est si difficile d’être exposé à l’autre chambre d’écho que le Wall Street Journal a créé une application nommée « Blue Feed, Red Feed », afin de vous exposer aux informations des deux camps.

Concevoir une meilleure IA pour vous améliorer

Si nos systèmes d’intelligence artificielle étaient formés à un régime équilibré de données, capturant nos comportements et nos aspirations, nous regarderions probablement moins de vidéos de chats, nous ne recevrions des notifications que pour les choses qui nous tiennent vraiment à cœur, et nous lirions des nouvelles plus diversifiées.

Alors, comment pouvons-nous concevoir une telle intelligence artificielle?

Personne ne le sait encore, mais il peut être intéressant d’énumérer un certain nombre de mesures qui pourraient nous mener dans cette direction.

Suivi

Premièrement, il est important de prendre conscience que les données utilisateur sur lesquelles nous formons nos modèles d’apprentissage automatique peuvent provenir d’actions rapides, instinctives et émotionnelles ou d’actions lentes, réfléchies et délibérées. En tant que conceptrices et concepteurs, et ingénieur·e·s, nous pouvons prendre des mesures pour reconnaître les actions provenant du système 1 et celles provenant du système 2.

Par exemple, nous pourrions mesurer le temps écoulé entre le stimulus et l’action. Si ce délai est trop court, l’utilisatrice ou l’utilisateur aura probablement fait appel au système 1.

Une fois que nous le savons, nous pouvons garder une trace de cette information, en associant chaque point de données d’utilisatrices et d’utilisateurs au type de pensée qui l’a généré.


Rééquilibrage

Rééquilibrage

L’étape suivante pourrait consister à essayer de rééquilibrer nos modèles d’apprentissage automatique en pondérant davantage les rares points de données provenant du système 2 par rapport aux nombreux points de données provenant du système 1.

Le résultat serait probablement un logiciel d’intelligence artificielle qui semble nous comprendre plus en profondeur. Un peu comme un·e ami·e qui sait que nous essayons d’arrêter de fumer nous aidera probablement à le faire, même s’il nous voit fumer un paquet par jour.

Saisir nos aspirations

Le suivi et le rééquilibrage peuvent constituer de bons premiers pas. Cependant, nous faisons le meilleur usage du système 2 lorsque nous restons assis tranquillement et que nous réfléchissons aux changements que nous souhaitons apporter dans nos vies.

Pour le moment, nos systèmes d’intelligence artificielle ne peuvent absolument pas être exposés à ces aspirations plus profondes. Ils ne nous aident pas à changer notre comportement de manière significative, par exemple en développant une nouvelle habitude qui aiderait à améliorer l’environnement. Nos gadgets technologiques n’apprendront probablement jamais à ce sujet.

Cela pourrait être une nouvelle frontière dans le développement de l’intelligence artificielle. Nous n’avons pas encore les réponses, mais nous avons déjà de brillant·e·s scientifiques du monde entier qui y travaillent dans le cadre de leurs recherches sur l’IA. Nous devrions prendre le temps de réfléchir à la manière de construire des systèmes d’intelligence artificielle qui reflètent nos aspirations et qui nous voulons être, pas seulement qui nous sommes.

Cela pourrait conduire à des assistants d’IA qui nous inciteraient à passer beaucoup plus de temps hors ligne. Et cela pourrait aboutir à des logiciels qui nous aideraient à coopérer entre nous pour résoudre les problèmes les plus pressants du monde.