Vous avez sans doute lu cette semaine cette phrase de Geoffrey Hinton, issu de son entretien au New York Times. Le chercheur, prix Turing 2019 et spécialiste de l’intelligence artificielle, a ainsi quitté le géant américain après avoir passé 10 ans à travailler pour lui sur des sujets ultrapointus, dont on ne peut douter du sérieux. Il remet en question aujourd’hui l’œuvre de sa vie, face au développement rapide de l’IA ces dernières années.
La déclaration viendra s’ajouter à d’autres ces dernières semaines, qui alimentent une vision assez alarmiste de la situation. Au « café du commerce », il n’y a en effet qu’un pas entre parler des effets (réels) que l’IA va avoir sur nos sociétés, et s’inquiéter du fait qu’elle provoque d’une façon ou d’une autre la disparition de l’humanité. L’IA a été le sujet de tellement d’œuvres de fiction que l’imagination ne peut être que luxuriante quand l’actualité devient plus brûlante. Au risque de faire disparaitre toute analyse. Le « danger existentiel » pour l’Humanité, est bel et bien un vrai sujet de recherche sur lequel le débat contradictoire est riche. Il parait cependant moins urgent à traiter à ce stade que celui, tout à fait immédiat lui, de la transformation brutale de nos modes de travail, avec des enjeux économiques et sociaux majeurs.
En 2022, un sondage mené auprès de chercheurs en intelligence artificielle relayait que pour un quart d’entre eux, il n’y a aucune chance qu’une extinction de notre espèce soit provoquée par l’IA. La médiane sur tous les experts interrogés plaçait le risque à 5 %.
Mais un autre pourcentage est de nature à ramener les pendules à l’heure : 30 %. C’est la part des emplois de « back office » qu’Arvind Krishna, le CEO d’IBM, estime menacés dans son entreprise par l’automatisation… à horizon cinq ans. Il fait référence ici à des fonctions qui ne sont pas le propre des entreprises de la tech, à l’image des fonctions les plus administratives des directions RH, gérant les vérifications d’emploi ou le transfert d’employés d’un service à l’autre par exemple. Dans ces conditions, une seule entreprise de la taille d’IBM pourrait supprimer 7 800 postes d’ici à 2028, au-delà de toute autre considération. Pour les fonctions RH plus complexes, Arvind Krishna envisage une échéance de remplacement à 15 ans. Ce n’est pas demain, mais c’est après-demain.
Dans son dernier rapport « Futur of Work », le Forum Economique Mondial ne dit pas autre chose en estimant à 26 millions, les disparitions d’emplois « administratifs » sur la planète d’ici à 2027. Il prévoit par contre en retour de la croissance dans les emplois liés à l’éducation et la formation, l’e-commerce, mais aussi l’agriculture.
Mais voilà, on le sait, les postes créés par la technologie ne s’adressent pas, pour l’immense majorité d’entre eux, à ceux qui ont vu leur emploi détruit par cette même technologie. Et ce, d’autant plus quand le changement survient rapidement. Autrement dit, quand Goldman Sachs évalue le potentiel de l’IA Générative à une augmentation du PIB mondial de 7 % sur la prochaine décennie (soit une augmentation de près de 7 000 milliards de dollars), la question suivante devient vite : pour quel partage réel de la valeur ?
La technologie en général est prompte à créer de la fracture sociale quand tout n’est pas mis en œuvre pour permettre au plus grand nombre de s’en emparer habilement. La simple numérisation de nos services administratifs le prouve chaque jour à la partie la plus fragile de la population. Pour eux, et pour d’autres, l’accélération massive promise par l’IA sera un choc bien plus violent encore.
Reste l’espoir, en Europe notamment, de réglementations qui permettent d’anticiper et d’amoindrir ce traumatisme. La crainte, justifiée, est cependant que celles-ci se contentent de tuer l’innovation, alors que la France et ses voisins en ont plus que jamais besoin pour relever des défis environnementaux et sociaux prééminents. Dans une récente tribune « Carte blanche » publiée sur Le Monde, Jean Ponce (ENS) et Isabelle Ryl (Université de Lille, Inria), appellent ainsi à réguler l’IA tout en protégeant la recherche scientifique. À raison, ils critiquent la vision trop alarmiste qui peut prévaloir aujourd’hui sur l’intelligence artificielle, tout en saluant une approche « raisonnée » comme celle que le Conseil européen pourrait mettre en place pour préparer l’avenir. Mais à quel point le législateur est-il équipé pour anticiper demain ?
Cet édito est issu de notre newsletter de la semaine du 01 mai au 04 mai 2023.
Découvrez là dès maintenant : newsletter-05mai/alliancy.fr
Et pour ne pas rater la prochaine newsletter Alliancy, inscrivez-vous : alliancy.fr/abonnement-newsletter