Le Machine Learning et l’illusion de l’explicabilité par Thomas Solignac (Golem.AI) – Umanz

Le Machine Learning et l’illusion de l’explicabilité par Thomas Solignac (Golem.AI)

 

Pas un jour ne passe sans que les prouesses réalisées par l’Intelligence Artificielle (IA) n’occupent le devant de la scène. Pour autant, le développement commercial de l’IA et son acceptabilité sociale demeurent limités en raison du manque d’intelligibilité du deep learning : on parle d’une « boite noire » décisionnelle. L’IA explicable entend percer les secrets des décisions algorithmiques. Mais qu’entend-on vraiment par “explicabilité” et “boite noire” ? L’IA transparente est-elle possible ?


De quoi parle-t-on ?

L’IA explicable ou XAI (eXplainable Artificial Intelligence) est une forme d’intelligence artificielle dont la conception permet à l’utilisateur de comprendre le cheminement jusqu’à la prise de décision. Certains types d’IA (IA symboliques par exemple) sont explicables by design, tandis que les IA adoptant une architecture probabiliste -comme les algorithmes de deep learning- présentent un fonctionnement opaque.

Il ne s’agit pas d’algorithmes qu’il est impossible d’observer. En effet, aucune difficulté à aller observer l’intérieur du deep-learning. Mais la nature même de cet algorithme ne permet pas d’en tirer une explication. Il s’agit de l’adaptation d’une fonction mathématique complexe à un jeu de données. On peut tout à fait observer cette fonction mathématique. Cette fonction prend la bonne décision “en moyenne”. Et c’est bien pour ça que le système n’est pas explicable : il ne fonctionne pas selon un raisonnement qu’il serait possible de rendre compréhensible par quelqu’un, on de justifier. Au mieux, on peut tracer pour un exemple de traitement, quelle partie de la donnée est plus ou moins importante pour le traitement.

Pourtant, afin d’inspirer confiance aux usagers, certains systèmes critiques comme les véhicules autonomes doivent pouvoir rendre compte de leurs décisions. Dans une étude de PwC menée en 2017, 67 % des dirigeants d’entreprises se déclarent convaincus que l’IA et l’automatisation auront un impact négatif sur les niveaux de confiance des acteurs de leur secteur d’activité dans les cinq années à venir. L’explicabilité fait donc figure d’enjeu commercial majeur.

Dépasser l’IA « boîte noire » : un enjeu commercial

Si la confiance que nous accordons à l’IA devrait en bonne logique se fonder sur son explicabilité, force est de constater que la scène de l’IA est aujourd’hui très largement peuplée d’algorithmes de deep-learning. Cette popularité du deep-learning a plusieurs facteurs, mais la performance n’est pas la première. En effet, on manque cruellement de développeurs, et encore plus d’experts en IA. En standardisant une forme d’algorithme adaptable à la plupart des problèmes, le deep-learning rend l’IA accessible au plus grand nombre… au prix de l’explicabilité et du besoin de massif de données.

Aujourd’hui, les solutions d’IA permettent aussi bien de faire circuler des véhicules, d’analyser des dossiers de demandes de crédit ou de diagnostiquer des cancers. Malgré une vaste gamme d’applications potentielles et un impact déjà considérable, l’IA n’infuse pas aussi rapidement dans l’économie. Outre l’inertie structurelle de certains marchés, l’incompréhension des modèles jugule leur déploiement. Abandonner des pans d’expertises métiers à des IA non explicables conduit le manager à un dilemme. Quand l’IA probabiliste se révèle efficace à adresser un problème, il n’en apprend rien faute d’explicabilité des décisions. Et face à un conflit d’opinion entre le pronostic de la machine et celui de l’expert : aucun dialogue possible.

Prenons l’exemple d’une IA en charge d’évaluer l’éligibilité d’un client pour souscrire à une assurance. L’application va intégrer une série de données qui seront pondérées et combinées afin de poser un diagnostic. Elle pourrait même inclure au modèle d’analyse des informations personnelles telles que des traces laissées sur Internet, des données de paiement… Un traitement très complexe offrira à l’IA une évaluation différente de celle d’un expert ; mais sans traçabilité, le résultat ne peut constituer qu’un indice intégré à un processus décisionnel. En effet, pour être opposable aux tiers (dans un sens réglementaire et éthique) il doit être possible de décortiquer les algorithmes pour rendre compte aux usagers des critères de décisions.

Des enjeux éthiques et réglementaires 

L’IA se banalisant, les questions réglementaires sont devenues urgentes. Cela jusqu’à ce qu’une des clauses du RGPD instaure le droit à l’explication en imposant la définition de l’utilité et de la finalité d’un traitement de la donnée. Tous les traitements intermédiaires doivent pouvoir être vérifiés et justifiés. L’XAI qui se propose d’assurer la redevabilité et la responsabilité algorithmique est devenu de facto le standard européen pour les IA décisionnelles.

Les intelligences artificielles travaillant en faible interaction avec l’Homme alimentent la psychose de la prise de pouvoir des machines. Même sans verser dans le catastrophisme, une IA non explicable amenée à prendre des décisions se trouverait dotée d’un pouvoir à caractère arbitraire difficilement soutenable du point de vue éthique. Ne pas rendre de compte, c’est être investi d’un pouvoir absolu, délié. Autre point problématique, l’IA non explicable prend à revers les bases de notre conception du libre arbitre : que vaut en effet un diagnostic non explicable, provenant d’une entité dépourvue de responsabilité ?

Pourquoi nous vend-t-on de la fausse explicabilité ? 

L’XAI tombe donc à point nommé, aussi bien pour faciliter la commercialisation de solutions IA que pour améliorer leur acceptabilité éthique et juridique. Beaucoup d’acteurs se saisissent donc de l’idée d’un deep learning explicable, une illusion marketing bien utile.

Une illusion car les modèles d’IA probabilistes de type deep learning, aussi performant fussent-ils, ne sont pas explicables par essence et rendent difficile la surveillance des biais. Faute d’alternative, les résultats ne pourront que se révéler décevants.

Après de nombreuses années déjà à promouvoir et instruire quasi-exclusivement le machine learning dans les formations à l’IA, il va maintenant falloir créer des experts de l’IA transparente, symbolique, et frugale. A contre-courant de l’approche purement statistique, ils vont bénéficier d’un incroyable vivier de compétences et de connaissances issues d’autres domaines, et en particulier des sciences humaines. Dans une époque où l’IA prend une place de plus en plus importante, il est nécessaire d’exiger de la transparence de la part des machines, et de former nos experts en fonction. L’adoption d’approches plus variées dans l’IA sera un gage de performance et d’éthique pour toutes les industries. Les standards ne sont pas encore établis mais la commission Européenne s’est positionnée il y a quelques semaines : Le futur de l’Europe est une Europe de l’IA, mais pas n’importe laquelle ; une IA de confiance et d’excellence opérationnelle.

Thomas Solignac – Fondateur et CEO de Golem.ai