TRUST-AI, un projet pour une intelligence artificielle de confiance

Standard Post with Image

Alors que les techniques d’intelligence artificielle influencent de plus en plus de décisions, leurs raisonnements passent par des étapes trop abstraites et/ou trop complexes pour être comprises par les utilisateurs. Comme il est difficile d’accorder une confiance aveugle aux IA, le projet TRUST-AI vise à rendre leurs choix plus transparents et équitables. Le Conseil européen de l’innovation vient pour cela d’apporter un financement à ce programme, qui comprend des membres de l'équipe-projet commune avec Inria TAU, du Laboratoire de Recherche en Informatique (LRI - CNRS/Université Paris-Saclay).

L’intelligence artificielle et en particulier l’apprentissage profond produisent des résultats toujours plus impressionnants, mais selon des processus souvent inaccessibles au raisonnement humain. On parle en effet de « boîtes noires », qui trouvent des solutions factuellement excellentes, sans pouvoir expliquer comment elles y parviennent. Cela soulève des questions éthiques alors que l’IA guide de plus en plus de choix. Par exemple, si un algorithme d’aide au diagnostic influence une décision médicale, patients et thérapeutes sont en droit de savoir comment l’IA a procédé. Ces choix peuvent également favoriser certaines personnes au détriment d’autre, et donc poser des problèmes d’équité.

Dans ce contexte, le Conseil européen de l’innovation (EIC), dans le cadre du nouveau programme Horizon Europe, a apporté son soutien financier à TRUST-AI1. Ce projet vise à développer des solutions d’IA plus transparentes, équitables et explicables, et donc plus acceptables. Mieux comprendre ce qu’il se passe dans ces boîtes noires, et s’assurer qu’elles ne produisent pas des résultats biaisés, est essentiel pour que les utilisateurs s’y fient.

Coordonnée par Gonçalo Figueira de l’Institut de sciences, de technologies et d’ingénierie informatique et des systèmes (INESC TEC, Portugal), le consortium de TRUST-AI est complété par des membres de l’université de Tartu (Estonie), du Conseil néerlandais de la recherche (NWO, Pays-Bas), de l’Institut national de recherche en informatique et automatique (Inria, France), ainsi que les sociétés APINTECH (Chypre), LTPlabs (Portugal) et Tazi (Turquie). Le programme débutera au mois d’octobre et est doté d’un budget d’environ quatre millions d’euros sur quatre ans.

Nous souhaitons rendre les systèmes d’IA plus explicables

« TRUST-AI vise à faire dialoguer les algorithmes d’apprentissage avec l’utilisateur pour orienter la création des modèles, décrit Marc Schœnauer, directeur de recherche Inria au Laboratoire de recherche en informatique (LRI - CNRS/Université Paris-Saclay). Pour cela, nous allons introduire des facteurs humains le plus tôt possible dans la boucle d’apprentissage. »

Les chercheurs optent pour une approche mêlant amélioration de l’interface utilisateur, sciences cognitives et programmation génétique. Cette dernière méthode, qui compte parmi les thèmes de recherche de Marc Schœnauer au LRI, s’inspire de la sélection naturelle appliquée à des arbres, où chaque branche représente une possibilité de raisonnement, et que l’on optimise pour aboutir au cheminement complet le plus efficace. La technique permet de suivre l’ensemble des choix faits par l’algorithme, et donc de les présenter et les expliquer plus facilement. Cependant, la programmation génétique fonctionne mal sur les grands ensembles de données prisés par les méthodes d’apprentissage profond. L’idée serait de coupler les approches, en utilisant les réseaux de neurones profonds pour leur performance, et la programmation génétique pour l’explicabilité.

Au lieu de seulement donner des résultats, les IA explicables pourront nous apprendre de nouvelles connaissances si on étudie en profondeur leurs résultats.

TRUST-AI vise un usage très généraliste, mais trois cas d’usage ont été retenus. D’abord le diagnostic de tumeurs rares, où des algorithmes aident à choisir le meilleur moment de leur développement pour une intervention chirurgicale. Une décision cruciale qui ne peut être prise sans comprendre le raisonnement sous-jacent.

Ensuite, des applications sont possibles dans la gestion des stocks de marchandises, en particulier de produits frais, afin d’optimiser les livraisons et anticiper les éventuels retards. Ici c’est plutôt l’absence de biais qui est en cause, car les clients souhaitent s’assurer que l’algorithme ne va pas favoriser un concurrent. Enfin, le dernier thème est la prédiction des consommations énergétiques, pour optimiser l’activité des centrales et agir sur les consommateurs en modulant les prix. Les citoyens voudront alors savoir comment les nouveaux tarifs ont été décidés. C’est bien le cœur de TRUST-AI, fournir tous les éléments pour une IA de confiance.


Notes

1. Transparent, reliable and unbiased smart tool for AI, outil intelligent, transparent, fiable et non biaisé pour l’intelligence artificielle