La valeur de l’IA explicable dans les services financiers
Alexei Markovits Alexei Markovits
27 avril 6 min

La valeur de l’IA explicable dans les services financiers

Un nouvel article de réflexion sur l’IA explicable

L’intelligence artificielle (IA) est en train de changer le monde qui nous entoure. Chaque jour, les systèmes d’IA achètent et vendent des millions d’instruments financiers, évaluent les réclamations d’assurance, attribuent des cotes de crédit et optimisent les portefeuilles d’investissement. Au fur et à mesure que les applications se développent, nous ne pouvons pas nous satisfaire que d'une bonne performance des modèles d'IA; nous devons aussi comprendre comment ils fonctionnent afin d'établir une confiance dans leur utilisation et ainsi maximiser leur potentiel.

Le défi pour l’IA moderne, contrairement aux technologies précédentes, réside dans le comment et le pourquoi de son fonctionnement. Répondre à ces questions n’est pas toujours évident, même pour les créateurs de la technologie. Bien que la plupart des algorithmes avancés d'apprentissage machine soient inspirés par la structure des neurones du cerveau humain, ils sont bien loin d'avoir atteint la capacité humaine d'expliquer les actions ou le raisonnement derrière le modèle d'IA.

Heureusement, il existe tout un domaine de recherche qui s’efforce de décrire la logique qui sous-tend la prise de décision en matière d’IA : l’IA explicable (IAX). La dynamique dans ce domaine s’amplifie à mesure que les systèmes d’IA démontrent des performances et des capacités bien au-delà des technologies précédentes, mais se heurtent à des obstacles de praticabilité et de conformité juridique. Pour les entreprises qui implantent l’IA dans leurs opérations, l’IAX sera un facteur clé de la réussite de la mise en œuvre.

L’IAX dans les services financiers

Les techniques d’explicabilité s'avèrent particulièrement utiles dans les services financiers, où le faible rapport signal/bruit typique des données financières exige une forte boucle de rétroaction entre l’utilisateur et la machine. Les solutions d’IA qui ne laissent pas de place à la rétroaction humaine pour guider les résultats risquent de ne jamais être adoptées au profit d’approches traditionnelles qui s’appuient sur une expertise et une expérience du domaine affinées au fil des ans. La réglementation, elle aussi, augmente les enjeux en empêchant même l’entrée sur le marché des produits alimentés par l’IA s’ils ne sont pas rigoureusement vérifiables.

Prévision du marché et gestion des investissements

Les méthodes de prévision utilisant les séries temporelles ont pris de l’importance dans les services financiers. Elles sont utiles pour prévoir les rendements des actifs, les données économétriques, la volatilité du marché et les écarts entre les cours acheteur et vendeur, pour n’en citer que quelques-uns. Mais leur succès est limité en raison de leur dépendance à l’égard des valeurs historiques. Comme elles souffrent d’un manque d’informations disparates significatives durant la journée, l’utilisation de séries temporelles pour prédire la valeur la plus probable d’une action ou la volatilité du marché est très difficile. En complétant ces modèles par des méthodes d’explicabilité, les utilisateurs pourraient comprendre les signaux clés utilisés par le modèle d’IA dans ses prévisions et interpréter les résultats en fonction de leur propre vision complémentaire du marché. Cela permettrait une synergie entre l’expertise des spécialistes de la finance et les grandes capacités d’analyse des données de l’IA moderne.

Les techniques d’explicabilité permettent des solutions d’IA similaires à l’intervention humaine pour sélectionner un portefeuille. Un investisseur pourrait choisir de ne pas opter pour le portefeuille suggéré offrant la plus grande récompense si le risque associé à celui-ci semble trop important. D’autre part, un système qui fournit également une explication détaillée des risques, par exemple de leur absence de corrélation avec le marché, constituerait un puissant outil de planification des investissements.

Évaluation des risques-clients

L’attribution ou le refus d’un crédit est une décision qui entraîne d’importantes conséquences. Pour cette raison, elle est fortement réglementée pour garantir l’équité. De nombreuses possibilités d’utilisation de l’IA dans l’évaluation des risques-clients dépendent de la capacité d’une application d’IA à fournir une explication solide de sa recommandation. Au-delà de la conformité, la valeur de l’IAX est visible à la fois pour le client et pour l’institution financière : les clients peuvent recevoir des explications qui leur donnent les informations dont ils ont besoin pour améliorer leur profil de crédit, tandis que les prestataires de services peuvent mieux comprendre le taux de désaffection prévu des clients et adapter leurs services. L’IAX peut aussi contribuer à réduire les risques, par exemple en expliquant pourquoi un portfolio d’actifs est le mieux distribué pour réduire le risque d’obligations sécurisées.

Le design pour l’explicabilité

La pratique la plus courante en matière d’IA se concentre sur la performance, l’explicabilité étant traitée après coup. La communauté de l’IA et l’industrie commencent toutes deux à comprendre la nécessité de mettre en place des systèmes d’IA plus transparents. Alors que les solutions d’IA évoluent de la preuve de concept au déploiement à l’échelle, elles reconnaissent l’importance de donner la priorité à l’IA pour satisfaire l’adoption, pour favoriser une collaboration efficace entre l’humain et l’IA et pour satisfaire les besoins en matière d’audit et de réglementation.

Notre article de réflexion vous offre une introduction à l’IA explicable et montre comment appliquer avec succès l’explicabilité signifie adopter une approche centrée sur l’utilisateur. Pour ce faire, il est nécessaire d’évaluer les besoins de transparence dans la solution d’IA et d’en tenir compte des premières étapes de l’élaboration d’une solution jusqu’au déploiement du système.

TÉLÉCHARGER