L’Intelligence artificielle, ses biais et les nôtres 

Dans sa nouvelle chronique, Frédéric Bardeau revient sur la difficile question de la détection et de l’encadrement des biais de l’intelligence artificielle. Une interrogation qui appelle à une réflexion plus générale selon lui. 

Le titre de cet article est un emprunt à celui de l’ouvrage de Rémy Demichelis qui est un des rares qui ne “hurle pas avec les loups” et traite la question sensible et importante des “biais” des IA avec équilibre et profondeur, et ça fait du bien dans les temps qui courent. Vantée pour sa puissance et sa rapidité, mais aussi redoutée pour son potentiel de dérives, l’IA, malgré ses promesses, révèle une réalité inconfortable : elle n’est pas infaillible, et ses biais sont un miroir grossissant de nos propres préjugés. Pourquoi continuons-nous à la voir et à la vouloir une IA “parfaite” ? Pourquoi ne pas changer de regard et comprendre ce qu’elle est vraiment : une projection amplifiée de nous-mêmes, avec toutes les imperfections que cela implique. 

Les biais dans les données humaines sont à l’origine de nombreux biais de l’IA. Pour entraîner un modèle, on lui donne une montagne de données issues de nos productions : articles, photos, livres, vidéos, tout y passe. Mais ces données portent les empreintes culturelles et sociales de leurs créateurs – nous, les humains, avec nos préjugés bien ancrés. D’un coup, l’IA se transforme en amplificateur de stéréotypes. Pourquoi ? Parce qu’elle apprend vient de nous. 

Beaucoup s’attendent à ce que l’IA soit plus parfaite, plus juste, en somme « meilleure » que nous, et d’autres n’ont qu’une peur c’est justement que l’IA nous soit “supérieure”, corrige nos travers, nos discriminations, notre subjectivité. A la fois on souhaite que “l’humain reste dans la boucle” et en même temps on voudrait que l’IA pallie nos défaillances.  

Le débat sur les biais pose une question de fond : peut-on vraiment atteindre un modèle d’IA sans biais ? Selon Romane Gallienne et Thierry Poibeau (CNRS), cet objectif est utopique. Un modèle « parfait » serait un modèle neutre, sans aucune influence ni subjectivité. Or, même nos idées les plus basiques ne sont pas exemptes de préjugés. Et si certains biais sont délétères et méritent d’être corrigés, d’autres sont inhérents à la condition humaine et même utiles pour structurer notre pensée. L’enjeu est donc de distinguer les biais à éviter des biais qui rendent notre réflexion plus riche. Cette interprétation, cet « art » du jugement, l’IA n’en est pas capable. La machine suit des règles strictes, appliquées sans nuance, sans subtilité. 

Et le danger est là : en s’appuyant sur des données biaisées, les modèles d’IA risquent de renforcer et de systématiser certains stéréotypes sociaux. Ces biais, parfois bien plus marqués que chez les humains eux-mêmes, créent des réponses uniformes et stéréotypées, qui finissent par fausser la réalité au lieu de la refléter. En d’autres termes, au lieu de corriger nos travers, l’IA les amplifie. L’algorithme, au lieu d’être un juge objectif, devient un simple miroir de notre société avec tous ses travers… en plus fort. 

Heureusement, il existe des solutions pour limiter ces biais. Une des pistes est d’enrichir les données d’entraînement : des bases de données plus diverses, incluant des contenus issus de contextes différents, permettent de réduire les biais dominants. Autre solution : veiller à ce que les équipes de développement soient elles-mêmes plus diversifiées (en termes de genre, d’âge, d’origine sociale et culturelle), afin que les biais sociaux s’atténuent dans la conception des systèmes. 

En parallèle, des IA spécifiques sont développées pour identifier les biais dans les modèles et aider à les corriger. Par exemple, des chercheurs de Harvard utilisent des IA pour traquer les discriminations dans les modèles, ouvrant ainsi la voie à des algorithmes capables d’auto-correction. D’autres méthodes incluent des ajustements d’algorithmes et même le « prompting » (orienter les questions posées à l’IA pour éviter certaines associations). 

Mais soyons honnêtes : même avec les meilleures intentions et les moyens techniques, les biais ne disparaîtront jamais complètement. Ils sont ancrés dans notre culture, notre histoire et, par conséquent, dans les systèmes que nous créons. La technologie seule ne peut résoudre un problème profondément enraciné dans la société. 

Ces biais, bien qu’indésirables, nous amènent aussi à prendre conscience des préjugés implicites de notre société. L’IA, en tant que miroir déformant de nos biais, peut ainsi nous aider à identifier les zones où notre jugement est influencé par des stéréotypes. À condition, bien sûr, de ne pas nous reposer aveuglément sur ses réponses, mais de garder un esprit critique. 

Un développeur insensible aux biais ou ignorant leur impact risque de propager des algorithmes potentiellement nuisibles, qui, par leur simple usage, ancreront encore plus profondément certains préjugés dans notre société. Cette responsabilité est cruciale, car l’IA est désormais utilisée pour des prises de décisions qui touchent directement la vie des individus. Un modèle qui renforce des stéréotypes, par exemple dans le domaine de l’emploi ou de la justice, pourrait provoquer des injustices graves. 

Alors, comment avancer ? Peut-être en acceptant que l’IA ne sera jamais une machine parfaite et objective. Peut-être aussi en exploitant ses biais comme autant d’indices pour analyser notre société. L’IA devient un signal d’alerte, un outil qui nous révèle les préjugés cachés au cœur de nos cultures et de nos traditions. Cela passe par une éducation des professionnels du numérique aux questions de biais et par une diversité accrue dans les équipes de conception. En rendant plus inclusifs nos modèles et les équipes qui les construisent, nous n’éliminerons peut-être pas tous les biais, mais nous nous rapprocherons d’une IA plus juste et plus équilibrée. 

L’intelligence artificielle n’est pas infaillible, et elle ne le sera probablement jamais. Mais cette imperfection, loin d’être un défaut, pourrait bien être une chance. Elle nous force à affronter nos propres biais, à questionner notre société, et à nous rappeler que la technologie ne doit pas devenir une excuse pour ignorer les problèmes sociaux profonds. En tant que professionnels du numérique, c’est à nous d’adopter une IA critique, transparente, et de la concevoir avec une diversité et une vigilance accrues. 

L’IA ne sera peut-être jamais parfaite, mais si elle peut nous aider à mieux nous comprendre et à construire un monde plus équitable, elle aura déjà accompli quelque chose d’essentiel.