Êtes-vous pour ou contre l’intelligence artificielle ? Je vous rassure, la question est purement rhétorique, car d’un simplisme affligeant. Pourtant, à écouter le « bruit » autour de l’IA générative depuis presque dix-huit mois, nous avons sans doute tous eu l’impression d’être pris à parti de la sorte, par des amis, de la famille ou parfois même des inconnus au quotidien. Au-delà de la vision manichéenne qui voudrait que l’on doive être dans le camp des techno-solutionnistes ou dans celui des luddites (pour reprendre des termes régulièrement utilisés), le sujet doit cependant attirer notre attention sur des questions tout à fait légitimes pour les champions de l’IA.
En effet, reconnaître que la profonde révolution qui se profile est inévitable, ce n’est pas forcément en faire une fatalité ou au contraire tout à fait un miracle. Plus que jamais, c’est la sommation de faire preuve d’exigence, de discernement et de finesse de réflexion. C’est pourquoi il est très intéressant de lire la lettre ouverte « Right to Warn » parue cette semaine, rédigée par 13 professionnels de l’IA, anciens employés ou toujours en poste chez OpenAI, Google DeepMind ou Anthropic. Contrairement à l’appel médiatisé de 2023 qui demandait de faire une pause – assez irréaliste reconnaissons-le – dans la course au développement et à la démocratisation de l’IA générative, cette nouvelle tribune appuie plus justement là où cela fait mal. Elle pointe une problématique de fond sur laquelle les dirigeants du numérique ont véritablement la possibilité d’agir. Son message est simple : il demande aux entreprises pionnières qui ouvrent le chemin de l’humanité vers le futur de l’IA d’être exemplaires en matière de protection des lanceurs d’alerte et de création d’une culture qui encourage les critiques en interne.
L’initiative, soutenue et approuvée par des sommités de l’IA comme Geoffrey Hinton ou Yoshua Bengio, résume la nécessité de trouver un bon équilibre ainsi : « Nous sommes d’anciens et d’actuels employés d’entreprises d’avant-garde dans le domaine de l’IA et nous croyons au potentiel de la technologie de l’IA pour apporter des avantages sans précédent à l’humanité. Nous sommes également conscients des risques sérieux que posent ces technologies. »
Pour les signataires, ces risques sont aujourd’hui bien connus et ils vont du renforcement des inégalités existantes à la manipulation et à la désinformation… mais également jusqu’à un danger de perte de contrôle pouvant conduire à « l’extinction de l’humanité ». Une situation qui n’est pas un jeu de l’esprit : « Les entreprises d’IA elles-mêmes ont reconnu ces risques, tout comme les gouvernements du monde entier et d’autres experts de l’IA », notent les auteurs.
Mais au-delà de ce tableau peu réjouissant, la partie intéressante de la lettre ouverte vient du parti pris qui suit : « Nous espérons que ces risques pourront être suffisamment atténués grâce à des directives adéquates de la part de la communauté scientifique, des décideurs politiques et du public. Cependant, les entreprises d’IA ont de fortes incitations financières à éviter une surveillance efficace, et nous ne pensons pas que les structures de gouvernance d’entreprise soient actuellement suffisantes pour changer cette situation », épinglent-ils.
D’où l’appel à faire émerger une culture positive de l’échange et de la critique chez les leaders de l’IA. En particulier, les signataires pointent la nécessité que les entreprises ne concluent aucun accord interdisant le « dénigrement » ni n’exercent de représailles à l’encontre de critiques liées aux risques provoqués par l’intelligence artificielle, « en empêchant l’obtention d’avantages économiques acquis ».
Cette partie souligne une situation bien connue chez les pionniers de la tech. Les signataires en poste chez OpenAI ont en effet tous signé la lettre anonymement, car tous ceux qui refusent d’accepter des accords de confidentialité très contraignants se voient privés de leurs parts dans l’entreprise. Daniel Kokotajlo, l’un des auteurs nommés, a ainsi quitté OpenAI au printemps, tout en renonçant à son « equity », afin de pouvoir critiquer ce qu’il juge être un manque de sérieux dans la capacité de l’entreprise à agir de façon responsable sur le chemin de l’intelligence artificielle générale.
Le contexte appelle à des engagements rapides, alors que les géants comme Google et Microsoft épurent leurs équipes, notamment cloud, pour se repositionner massivement sur l’IA, alimentant une guerre des talents exacerbée chez les spécialistes. En 2024, ce sont déjà plus de 90 000 travailleurs de la tech qui ont été licenciés, après des années 2022 et 2023 déjà compliquées. Le site Business Insider révélait récemment le parti pris assumé de cette course, en dévoilant un e-mail interne d’un cadre dirigeant de Microsoft dont les équipes sont concernées par les vagues de licenciements : « Notre objectif en tant qu’entreprise est de définir la vague de l’IA […]. En cours de route, nous prenons des décisions qui s’alignent sur notre vision et notre stratégie à long terme tout en assurant la durabilité et la croissance de Microsoft. »
« Définir la vague de l’IA », c’est bien ce qui est en question dans les prochains mois. Et en la matière, être capable de transparence et de faire vivre un débat critique équilibré chez les champions de la tech qui entraînent tout l’écosystème et la société derrière eux, est essentiel. Ce sera un ingrédient clé pour éviter les raccourcis dans le débat public et pour répondre efficacement aux craintes qu’apporte un changement aussi global et profond que l’IA.