Lancé par le Gouvernement fin 2019, le « Grand Défi IA » vise à poser les premières briques de confiance pour l’intelligence artificielle de demain. Julien Chiaroni dirige cette initiative au sein du Secrétariat général pour l’investissement. Il a accepté pour Alliancy de revenir sur le collectif industriel et académique « Confiance.ai », chargé dans le cadre de ce défi de « sécuriser, certifier et fiabiliser les systèmes fondés sur l’IA ».
Alliancy. En quoi consiste le collectif « Confiance.ai » ? Quel rôle joue-t-il dans le Grand Défi IA de confiance ?
Le Grand défi porté par le Secrétariat général pour l’investissement a vocation à encourager l’innovation de rupture – à la manière de la Darpa (Defense Advanced Research Projects Agency). C’est une réelle doctrine de type « Mission-oriented innovation » que nous implémentons pour lever les verrous qui freinent encore l’instauration de la confiance autour de l’IA. Notre but est précisément d’opérationnaliser l’IA de confiance dans les entreprises en France et en Europe, tout en identifiant les dysfonctionnements et les besoins dans tout l’écosystème.
Le collectif « Confiance.ai » est le pilier technologique du Grand Défi. Il réunit à ce jour plus d’une quarantaine de partenaires industriels et académiques, chargés d’imaginer l’IA de confiance pour les systèmes critiques. Ce n’est pas une tâche aisée parce que l’introduction de l’IA dans des verticales business reste relativement complexe et le taux de transformation et d’intégration de produits ou services est toujours plus ou moins faible dans l’industrie.
Le SGPI récemment publié une étude de marché avec le cabinet EY qui estime le marché de l’IA de confiance à 53 milliards d’euros sur plusieurs secteurs étudiés (automobile, ferroviaire, aéronautique, énergie & ressources, banque, assurance, pharmaceutique). Cela se traduit chez les industriels par un besoin croissant de confiance ouvrant la voie à un marché de certification ou de validation des systèmes d’IA.
C’est ce sur quoi travaille en ce moment la Commission européenne à travers le “AI Act”. Confiance;ai s’intéresse surtout à l’ingénierie essentielle aux industriels pour démontrer la confiance et industrialiser les systèmes d’IA. La feuille de route et les développements proposés aux entreprises doivent répondre à la problématique : Que dois-je adresser pour avoir un maximum d’impact grâce à l’IA ?
Le collectif intervient sur ces éléments à forte valeur ajoutée pour apporter un réel changement en matière économique, de confiance et de souveraineté autour de l’IA. Tout ça en prévoyant évidemment un processus de conception clair car embarquer une IA sur un algorithme de Netflix n’implique pas les mêmes problématiques que sur un véhicule autonome par exemple.
Confiance.ai est doté d’un budget de 45 millions d’euros sur la période 2021 – 2024 et l’idée est de mener des investissements très ciblés. Il faut se forger une conviction, prendre des risques et faire le pari que si les projets soutenus réussissent, ces derniers deviendront de véritables “game changers”. Nous avons formulé au préalable une cahier des charges, ce qui signifie qu’une solution précise est attendue de la part des projets qui ont été lancés.
Comment accompagnez-vous concrètement les acteurs de l’IA ?
Confiance.ai a vocation à devenir une plateforme d’outils et de méthodes associées pour accompagner le déploiement d’IA. C’est un réel « framework » adressé au monde de l’ingénierie chargé du développement de systèmes d’IA. Nous tentons de fédérer l’ensemble de notre écosystème autour de l’atteinte de cette solution.
Au départ, notre écosystème comptait une douzaine de partenaires et nous avons aujourd’hui dépassé la quarantaine. Un tiers est composé de grands groupes industriels, un autre d’acteurs académiques et enfin 30% de start-up ou PME qui ont été choisies dans le cadre de notre appel à manifestation d’intérêt. Et nous souhaitons poursuivre cette dynamique.
La multiplication des écosystèmes technologiques autour de la confiance et la souveraineté technologique de l’Europe et la France – comme Gaia-X – ne nuit-elle pas au projet ?
Confiance.AI et Gaia-X par exemple sont complémentaires et tous les éléments de la chaîne qui s’emploient à formuler un cadre de confiance technologique sont nécessaires. Lorsqu’il est question de développer un système basé sur l’IA, il est primordial d’avoir accès à toute une série d’ »enablers » techniques comme les données et connaissances métiers, le cloud, l’IT, le hardware et bien sûr l’ingénierie liée à l’IA.
Toutes ces briques technologiques sont interdépendantes et c’est en ce sens que la notion d’interopérabilité doit à tout prix être ancrée dans notre projet. Nous souhaitons bâtir le plus grand écosystème public-privé européen autour de l’IA de confiance. Le projet commence déjà à faire ses preuves et c’est bien grâce à cet écosystème que nous sommes compétitifs au niveau international.
Il est reproché à la Commission européenne d’avoir omis le droit des citoyens dans la formulation de son « AI Act ». Qu’en pensez-vous ?
La question de la confiance envers les citoyens est essentielle. Elle se fait aussi par la démonstration du respect des exigences : il faut être capable d’expliquer et démontrer en quoi un système applique certaines règles et non pas d’autres.
Prenons l’exemple des systèmes critiques appliqués aux véhicules autonomes : si je décide d’embarquer une IA. Il faut faire une démonstration au préalable.
C’est tout l’intérêt des méthodes d’évaluation et d’ingénierie que nous développons pour accompagner les offreurs et mieux les encadrer. Notre solution est à concevoir comme une plateforme de mise en conformité des systèmes d’IA. C’est un enjeu qui va devenir de plus en plus prégnant à mesure que le besoin de confiance se fait sentir dans divers secteurs. Les banques et assurances ont par exemple aujourd’hui besoin de cette IA de confiance pour démontrer au client pourquoi leur système de « scoring » a mené au refus ou non d’attribution de crédit.
Lancé en janvier 2021 pour une durée de 4 ans, le programme Confiance.ai ambitionne de créer en ce sens une plateforme souveraine, ouverte, interopérable et pérenne d’outils logiciels pour favoriser l’intégration de l’intelligence artificielle de confiance dans les produits et services critiques. Il fédère une quarantaine de partenaires industriels et académiques sur Saclay et Toulouse autour de 7 projets de R&D.
Estimez-vous que l’Europe et la France en font assez pour encadrer le recours à l’IA ?
Ce besoin de confiance se manifeste dans la plupart des produits et services technologiques proposés à ce jour. Mais la réponse ne doit pas être seulement une recherche d’encadrement à tout prix : sinon l’innovation pourrait devenir bridée. Il faut chercher un équilibre entre innovation et réglementation en consultant les start-up elles-mêmes. Nous récoltons de notre côté ces retours d’expérience auprès de France Digitale et suite à une enquête que nous avons conduit, avec plus de 260 réponses reçues.
Quels conseils donneriez-vous aux entreprises qui souhaitent déployer une IA ?
Cela dépend bien sûr des secteurs mais le plus important est de valoriser les expertises métiers dans le processus de développement d’une IA. Inclure cette vision au même niveau que l’évaluation des risques permet de répondre aux besoins métiers une fois que le système d’IA est en fonctionnement. Nous sommes dans un écosystème où les compétences sont riches et il serait dommage que l’IA ne soit pas pensée pour les faire valoir.