Notre chroniqueuse invitée Ana Semedo revient sur les paradoxes et injonctions contradictoires liés au développement de l’intelligence artificielle. Et appelle à bien différencier trois catégories d’IA.
L’IA amplifie nos contradictions et questionne nos choix de société. À l’ère de la communication, nous la voulons « responsable », mais ce n’est pas l’IA qui le sera, c’est nous qui devront l’être avec elle. De même, ce n’est pas l’IA qui est de confiance, mais les écosystèmes que nous bâtissons avec elle. L’IA ne peut être le miroir d’elle-même, elle est celui de notre société. Voulons-nous y refléter le meilleur de nous-mêmes ? J’ai exploré cette question lors de ma conférence d’ouverture à MTL Connecte, Montréal, le 15 octobre dernier. En voici quelques points clés :
L’IA est le reflet amplifié de nos paradoxes
L’IA expose nos paradoxes comme aucune autre technologie. Nous prônons la démocratie et adoptons des technologies de surveillance et manipulation. Nous voulons la liberté et exigeons une sécurité totale qui compromet notre vie privée. Nous clamons la durabilité et poursuivons une croissance effrénée de l’IA, gourmande en ressources… Ce miroir amplifie nos contradictions, questionnant notre engagement pour la souveraineté et la durabilité.
La souveraineté est un chemin difficile mais nécessaire
La souveraineté, terme bien souvent galvaudée, est pourtant essentielle face aux géants technologiques et aux tensions géopolitiques croissantes. Pour les États, l’IA est un enjeu stratégique majeur : les GAFAM dominent les technologies et leurs infrastructures, les matières premières sont majoritairement sous contrôle chinois, les semi-conducteurs dépendent de Taïwan et de la Chine, les câbles sous-marins sont dominés par les GAFAM et les satellites en orbite basse appartiennent en majorité à Elon Musk et à Jeff Bezos. Dans ce contexte, comment instaurer une souveraineté stratégique et protectrice ?
Les entreprises restent aussi captives des géants technologiques : même avec un Large Language Model (LLM) privé, elles ne maîtrisent ni l’entrainement initial et ses données ni les évolutions technologiques. Mais les SLM (Small Language Models) spécialisés, conçus pour des usages métiers, reflètent-ils la vision et les valeurs de l’entreprise, ou sont-ils façonnés par des biais extérieurs ?
Enfin, à l’échelle individuelle, nous avons confié nos clés numériques aux GAFAM, consommant passivement réseaux sociaux et plateformes de vente en ligne qui vident nos centres-villes, dégradent nos emplois, fragilisent notre santé publique, et abiment nos démocraties. L’IA émerge à un moment critique, où nous sommes plus matures face aux réseaux sociaux et conscients des urgences planétaires. Elle pourrait être une opportunité unique de reprendre nos clés numériques et redéfinir nos souverainetés, tant individuelles que collectives.
Trois voies pour l’IA
Trois voies se dessinent donc pour l’IA, chacune avec ses conséquences :
- IA transformatrice, pour progresser : celle qui peut relever les grands défis contemporains – santé, décarbonation, agriculture… – à condition d’un encadrement rigoureux pour ne pas accentuer les crises qu’elle cherche à résoudre. Cette voie est celle d’une innovation responsable, au service de l’humanité et de la planète.
- IA récréative, à bien doser : avec modération, elle répond à nos besoins créatifs et de divertissement ; en excès, elle devient énergivore et accroît notre dépendance.
- IA dangereuse, à bannir : celle qui dépasse les limites éthiques pour surveiller, manipuler ou même tuer. Menace pour les droits et libertés, elle renforce notre dépendance aux systèmes nuisibles et doit être bannie autant que possible.
Si nous nous affranchissons des modèles de productivité et croissance effrénées, l’IA transformatrice pourrait véritablement servir nos valeurs et nos défis planétaires.
Des exemples inspirants d’IA transformatrice
L’IA transformatrice, bien que discrète, agit déjà dans des organisations, avec des bénéfices concrets, parfois inattendus.
Lors d’un échange avec Isabelle Veber, Directrice Générale de l’Excellence Opérationnelle chez Saint-Gobain – que j’ai rencontrée alors que nous intervenions ensemble au Cercle de la Terre[1] – trois exemples concrets ont illustré comment l’IA transforme les pratiques industrielles :
- Optimisation des processus avec les jumeaux numériques
Dans une usine de briques réfractaires, l’IA a révélé une solution écologique et contre-intuitive : jusque-là, augmenter la température était la réponse à un problème opérationnel. Grâce aux jumeaux numériques et à la capacité de l’IA d’analyser des paramètres multiples, baisser la température s’est avéré plus efficace, réduisant également l’empreinte carbone. Cette approche a nécessité une conduite du changement, car contre-intuitive. - Création de procédures à partir de vidéos
A partir de vidéos d’opérateurs, l’IA permet de créer plus rapidement des procédures et facilite la capitalisation des compétences, la formation et la diffusion de l’excellence opérationnelle, même dans des petites usines ou lors d’acquisitions d’entreprises. - Amélioration du recyclage
L’IA facilite l’intégration de matériaux recyclés en ajustant les paramètres aux variations de pureté des matières, tels le gypse ou le verre, qui diffèrent selon leur provenance. Bien que plus coûteux, le recyclage est essentiel pour préserver les ressources et prolonger la durée de vie des carrières et mines.
Ces exemples montrent que l’IA transformatrice peut soutenir une industrie plus durable, contribuant à un modèle économique plus respectueux des ressources naturelles – un choix qui nous appartient.
Dans l’étude « Green AI & AI for Green » que j’ai réalisée, j’en donne d’autres exemples.
Réglementation et écosystèmes de confiance : des remparts essentiels
Souveraineté et libre choix, nécessitent 2 piliers incontournables : la règlementation et des écosystèmes de confiance. L’IA est une technologie sans garde-fous innés, un véhicule lancé à pleine vitesse sans code de la route. Réglementer l’IA, c’est établir un « code de la route » pour garantir une innovation respectant l’humain et la planète.
La confiance ne peut être un simple label. Lorsque nous prenons l’avion, nous faisons confiance au constructeur, mais aussi aux certifications de l’IATA, à la maintenance, à l’expertise de l’équipage et des tours de contrôle… De même, l’IA doit s’inscrire dans un écosystème d’engagement collectif, où chaque acteur est responsable de l’impact de l’IA, en faisant d’elle un partenaire fiable et durable. Ces écosystèmes de confiance, fruits de la collaboration entre états, entreprises, chercheurs et citoyens, sont la condition indispensable pour faire de l’IA un partenaire durable et éthique.
De l’urgence d’affronter notre propre image
Réglementation, souveraineté, usages éclairés et écosystèmes de confiance sont les garde-fous pour faire de l’IA un levier de progrès et non un outil de domination. L’IA est un miroir de notre société, à nous d’y refléter le meilleur de nous-mêmes.
[1] Dans le cadre de l’Université de la Terre à l’UNESCO, les 14 et 15 mars prochains