L’ Intelligence Artificielle Explicable (ou IAE), de quoi s(agit-il ?

Avec l’utilisation croissante de l’intelligence artificielle (IA) et la capacité d’apprentissage croissante des solutions, il y a un risque croissant que les systèmes en sachent un jour plus que leurs développeurs et concepteurs, et que les banques ne soient plus capables de comprendre les technologies qu’elles utilisent. Il y a une demande imminente pour un type de technologie qui peut fournir des explications du résultat produit par les systèmes d’IA.

L’utilisation de l’intelligence artificielle dans les banques se développe, par exemple pour fournir aux clients des services de conseil en matière d’accumulation de capital. Un autre domaine de l’intelligence artificielle est l’automatisation des processus de conformité. Avec l’IA, il devrait être plus facile et plus efficace de détecter les transactions frauduleuses comme le blanchiment d’argent et la fraude par carte de crédit. Les exigences à cet égard sont de plus en plus complexes: conformément aux cadres législatifs, il ne suffit pas que les banques identifient la fraude aux opérations sur les titres ou les transactions. On s’attend également à ce que les instituts surveillent les communications pour déceler toute manipulation du marché, par exemple, toute indication de délit d’initié.

L’utilité des systèmes IA

Les systèmes d’IA sont extrêmement utiles pour analyser de grandes quantités de données. D’autre part, il est également important que la personne puisse toujours suivre comment par exemple un collègue, ou un logiciel automatisé ou encore un autre système complexe d’automatisation prennent leurs décisions et leurs recommandations. Lorsque les instituts enseignent l’intelligence artificielle aujourd’hui, par exemple en tant que conseiller automatisé pour le conseil en valeurs mobilières ou pour ouvrir un nouveau compte conformément à la méthode KYC (Connaître son client), il n’existe pas encore de mécanisme permettant de rendre les résultats compréhensibles.

C’est loin d’être anodin avec des systèmes qui deviennent de plus en plus “intelligents” et qui améliorent leur capacité d’auto-apprentissage. Par exemple, les réseaux neuronaux artificiels comprennent des millions de neurones qui sont reliés à des millions de connexions. Ce système d’IA est entraîné graduellement sur une plus longue période de temps, ce qui lui permet d’avoir la bonne configuration d’entrée et de sortie.

La transparence

Les décisions doivent être compréhensibles et le risque avec ce type de machines informatiques complexes est que les clients ou les employés de banque se retrouvent avec une série de questions après une consultation ou une décision à laquelle les banques elles-mêmes ne peuvent répondre : “Pourquoi avez-vous recommandé cette action? pourquoi cette personne a-t-elle été rejetée en tant que client ? Un autre exemple : comment la machine classe-t-elle cette transaction dans la catégorie du financement du terrorisme ou du blanchiment d’argent ? Il est essentiel que les banques aient des réponses à toutes ces questions.

Une question particulièrement délicate est la surveillance des flux d’opérations financières pour déceler tout signe de blanchiment d’argent et de financement du terrorisme.

Dans le pire des cas, une recommandation d’IA peut donner lieu à une poursuite criminelle et ce type de décision ne devrait en aucun cas, être fondé sur un processus entièrement automatisé. Et légitimement, un client a le droit de savoir pourquoi l’investissement recommandé a été jugé particulièrement lucratif à une certaine époque et pourquoi il n’a pas obtenu un retour sur investissement souhaité.

Le principe des systèmes d’IA

Les entreprises se concentrent de plus en plus sur la transparence et la compréhension de l’intelligence artificielle lorsqu’elles déploient celle-ci et des systèmes d’apprentissage complexes. La notion de capacité de suivre et de comprendre facilement les décisions en matière d’IA est appelée l’IA explicable (IAE).

Aux Etats-Unis, par exemple, le DARPA, un organisme du département de la Défense des Etats-Unis, fait des recherches sur des modèles pour rendre les décisions en matière d’IA plus transparentes.

L’idée de l’IAE est de créer une sorte de portail de qualité entre le processus d’apprentissage des solutions d’IA et le domaine d’application ultérieur, par exemple lors d’enquêtes sur des soupçons de blanchiment d’argent ou de notation de crédit, afin de trouver une solution directe. Dans le cas des réseaux complexes, la qualité d’élaboration et de conception doivent être enracinées dans le modèle dès le départ car il est souvent impossible de vérifier les résultats par la suite. Pour le dire de manière plus simplifiée :

  • Lorsqu’une banque forme un modèle, basé sur tous les attributs disponibles d’un client, qui prédit si la personne est plus intéressée par un investissement à haut risque avec des opportunités de rendement élevé ou un investissement plus sûr avec des perspectives de rendement plus faibles, le résultat final est un modèle binaire.
  • Toutefois, la banque ne peut pas expliquer par la suite si la notation était à haut risque ou peu encline au risque puisque l’institut ne sait pas quelle combinaison d’attributs pour cette personne spécifique a eu un impact sur le résultat. Si, par contre, la banque dispose de différents paramètres de calculs sur la base de l’algorithme d’IA déployé qui aident une personne à prendre une décision. Par exemple, “Dans quelle mesure la personne est-elle impulsive ?” Quelle est sa catégorie de revenu ?” Ou même “dans quelle mesure son historique de paiement mensuel varie ?”

L’équilibre entre la performance et l’explication

Les banques ont besoin d’un modèle d’explication avec des paramètres de décision et une interface qui rendent les explications plus transparentes. Ce cadre dit d’explication, devrait être intégré dans l’ensemble du processus entre la formation des systèmes d’IA et l’action à mener. Des outils et des plugins sont disponibles pour visualiser les données afin de simplifier le processus.

Dans un scénario concret, des algorithmes d’auto-apprentissage sont mis en oeuvre dans le cadre d’une validation de principe pour identifier les activités de blanchiment d’argent dans une banque.

Outre la classification de l’algorithme, l’auditeur est également fourni avec le résultat du framework IAE. Cela permet non seulement de comprendre la décision du modèle, mais aussi d’accroître son efficacité grâce à la présentation des paramètres liés à la décision. Grâce à ces nouvelles informations, l’agent de blanchiment d’argent de la banque peut hiérarchiser le traitement des cas suspects et, dans chaque cas suspect, examiner les paramètres les plus importants (sur la base de l’algorithme) des activités potentielles de blanchiment d’argent qui sont en cours.

L’un des défis de IAE est de trouver le juste équilibre entre performance et explication. Selon la complexité du modèle déployé, sa compréhensibilité peut en souffrir car l’intelligence artificielle diffère considérablement de la classification binaire et la matière est rendue “inutilement” compliquée du point de vue de l’IA. L’objectif des systèmes IAE est d’amener la performance et la possibilité de fournir une explication valable au même niveau élevé.

Maîtrisez vos décisions en matière d’IA

On peut supposer que la surveillance bancaire prendra la question de l’IA et de la conformité plus au sérieux à l’avenir. Des sanctions pourraient être imposées aux instituts qui ne sont pas en mesure d’évaluer les dommages pécuniaires en raison d’un manque de documentation et de transparence dans les processus automatisés. Plus les banques utiliseront l’intelligence artificielle dans les transactions commerciales et les solutions d’auto-apprentissage, plus il sera important d’assurer la transparence et l’explicabilité des décisions et recommandations automatisées.

Soyez le premier à commenter

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée.


*