[L’analyse] Les intelligences artificielles ne sont pas exemptes de biais, de la conception à l’exécution. Les comprendre est essentiel pour ne pas reproduire les schémas cognitifs humains, notamment dans le domaine des RH.
En 2018, L’Oréal a mis fin à Vera, son outil d’intelligence artificiel censé améliorer son processus de recrutement. L’expérience n’a pas été concluante. Le robot, censé contourner les biais des recruteurs, les avait amplifiés. L’IA en proposant un autre circuit de traitement de la donnée, peut dépasser la décision humaine. Mais peut-elle pour autant proposer des réponses exemptes de biais ?
Comment fonctionne la prise de décisions, à l’échelle humaine ? L’individu, confronté à des situations complexes et à des variables multiples doit prendre des décisions rapides dans un environnement changeant. Le « biais de simplification » accélère la prise de décision en ne retenant que quelques paramètres pour trancher. Le « biais de confirmation » incite à privilégier les éléments allant déjà dans le sens de la conclusion attendu. Ces biais, bien connus de ceux qui étudient le cerveau humain, ne sont pas à bannir. Ils permettent l’action, qui serait entravée dans le cas contraire par trop de complexité à « processer » par le cerveau.
Il n’y a pas de neutralité totale dans l’IA
L’IA, dans le domaine des RH, est une solution pour écarter certains biais, du recrutement à l’évaluation de la performance. L’exemple bien connu est celui du tri de CV, où le recruteur qui aurait pu privilégier certains profils, sur la base de critères d’âge ou de genre, va faire appel à l’IA pour élargir la sélection de candidats. Mais il ne faut pas y voir une baguette magique.
« Il n’y a pas de neutralité totale dans l’IA », prévient Jean-Noel Chaintreuil, directeur chez Change Factory et expert du Futur du travail. Dans certains cas, les résultats peuvent être partiels, orientés ou subjectifs. Et prêter le flanc à des traitements discriminatoires, ce qui est l‘exact inverse du résultat recherché pour les politiques RH. Mieux comprendre les biais de l’IA, c’est se donner des clés pour les contourner.
Cette réflexion est assez récente. « Quand j’ai commencé en 2018, ces questions de biais ne se posaient pas », se souvient Valentin Bourget, fondateur d’Intelyber, société de valorisation de données. « L’objectif c’était d’industrialiser le traitement au maximum. Et au fur et à mesure, on s’est aperçus de la persistance de biais ».
Examinons les différents types de biais des intelligences artificielles, au premier rang desquels, les biais amont, ou « by design », inhérents à la conception initiale des outils.
Les IA sont construits selon des modèles statistiques ou probabilistes
« Chatgpt donne une bien meilleure réponse si on lui propose un pourboire, relève en souriant Jean-Noel Chaintreuil. Selon ce spécialiste du futur du travail, c’est parce qu’il a été créé par des ingénieurs américains, pour qui le pourboire fait partie du processus de rétribution classique.
Il convient de comprendre comment fonctionnent les IA : « ce sont des modèles régressifs, qui ne font que prédire le mot qui vient après », explique Adrien Grimal, Responsable des activités data / IA chez Sia Partners. « Les IA sont construites sur la base de modèles statistiques ou probabilistes. On peut faire le choix de modèles simplificateurs ou au contraire d’algorithmes très complexes qui vont être sensibles à la moindre modification de variable. De manière contre-intuitive, des modèles très sensibles ne vont pas donner des résultats optimaux.» L’IA, propulsée par des mécanismes apprenants connus sous le vocable « deeplearning », a besoin de deux aspects essentiels pour fonctionner : des données et des algorithmes de programmation fiables.
C’est tout le cycle algorithmique d’entraînement qu’il faut comprendre
Au-delà de l’algorithme, il faut aussi s’intéresser aux données d’entraînement qui influencent beaucoup les résultats obtenus. « Les développeurs qui ont entraîné les algorithmes l’ont fait avec des bases de données sélectionnées. Prenons l’exemple de la météo. Si l’on se contente de demander des prévisions sur la base de données des trois derniers mois, il est fort probable que les prédictions soient faussées », relève Adrien Grimal. « Les algorithmes de prédiction sont entraînés sur la littérature mondiale, avec des sources de données majoritairement en anglais. C’est tout le cycle algorithmique d’entraînement qu’il faut comprendre ».
Ces biais de programmation peuvent dans certains cas reproduire les biais du développeur. Valentin Bourget donne l’exemple de tests de maintenance prédictive développés grâce au machine learning. « Dans le domaine industriel, on avait mis en place un modèle capable de déceler des pannes très facilement grâce à des indicateurs de température, d’intensité et de données matérielles. Puis il s’est avéré qu’un certain type de panne n’était jamais identifié par le système. Cela parce qu’on avait pré-entraîné les algos avec un jeu de données qui soutenait certaines hypothèses de panne établies dans le métier, et qu’un type de panne avait été oublié. Ici on peut parler de la reproduction par la machine d’un biais de confirmation ».
Les intelligences artificielles sont influencées par l’homme dès leur conception. Et la manière dont elles continuent à être alimentées et sont ensuite exécutées impacte les données de sortie.
Biais statistiques, incidences du prompt et « reinforcement learning »
Sur la façon dont est « nourrie » la machine, on peut parler de « biais historique ». « Dans le recrutement, un recruteur va pouvoir être tenté de regarder les top performers dans une entreprise et de demander à la machine de sélectionner des candidats sur le même profil, la même école cible ou des expériences professionnelles similaires. Ce biais est très fâcheux pour les RH, car l’outil va reproduire les inégalités du monde réel, avec une sorte d’effet levier multiplicateur. Ne pas reproduire la politique de sélection à l’œuvre dans l’entreprise est quasiment impossible », relève Jean-Noël Chaintreuil.
Et puis, il y a bien sûr la manière dont on s’adresse à l’intelligence artificielle, le fameux prompt. « Chatgpt va donner une bien meilleure réponse si on lui dit de prendre une bonne information et de respirer étape par étape », observe Jean-Noel Chaintreuil. « Transmettre des messages à la machine, c’est comme entre deux humains, il y a un filtre à l’écriture, et un filtre à la réception du message. »
Et enfin, autre source de biais, ceux de validation de l’exécutant, ou « reinforcement learning », selon Adrien Grimal. « En exécution, la machine rentre dans une boucle d’apprentissage continu. Il faut avoir en tête que les algorithmes font tout pour plaire à celui qui les utilise. Et ils vont donc réagir à l’utilisateur qui va valider ou non les réponses reçues. Ces petites « tapettes à l’algorithme » si elles sont massives et répétées influent sur la manière de répondre. C’est comme si on avait un gros bateau, et que les barreurs donnaient des coups de barres répétées vers la droite par exemple. Au bout d’un moment, le bateau va tanguer dans cette direction. »
La persistance de biais, qui parfois amplifient ceux de l’humain est-elle l’explication à la réticence des RH à en exploiter les potentialités ? « Cela fait peur car la machine peut accentuer le racisme ou les inégalités. Et éloigner les RH des outils », confirme le spécialiste du futur du travail.
Mais pour Maurice Le Maire, Senior Director HR chez SIA Partners, la réticence des chargés de ressources humaines est d’abord liée à la nature de la fonction RH, plus « réactive que stratégique ». Et aussi au type de données à exploiter, qui sont personnelles et sensibles comme les salaires. Enfin, il faut aussi y voir une conscience assez aiguë par les RH des aspects légaux, où une mauvaise exploitation des données pourrait faire courir des risques à l’entreprise.