Des moyens humains et techniques peuvent être mis en place, pour assurer une utilisation de l’intelligence artificielle la plus inclusive et éthique possible. Ils doivent être réfléchis en amont, avant tout déploiement des solutions.
L’IA générative est passible de biais, puisqu’elle reproduit et apprend d’un historique que l’activité humaine lui a injecté. Mais ces biais ne doivent pas être de nature à freiner son utilisation. S’il faut commencer par mieux connaître les biais de la machine, il est tout aussi important ensuite de se donner les moyens d’y faire face.
Des moyens de contournement des biais et de leurs risques existent en effet. Ils reposent en grande partie sur la conception initiale de l’outil, « en amont ». Ils peuvent aussi être mis en place lors de l’exécution des outils d’intelligence artificielle par ceux qui les utilisent, ou en s’entourant de profils qualifiés. Les moyens d’y remédier peuvent être techniques, mais sont avant tout basés sur l’humain, du concepteur à l’utilisateur. Si la machine répond à l’homme, l’homme la conçoit, dans un rapport homme-machine jamais complètement figé.
En premier lieu, il faut d’abord mettre en place une gouvernance adaptée, conseille Adrien Grimal, Responsable des activités data / IA chez Sia Partners. « Pour mettre en musique des projets innovants comme ceux liés à l’IA générative, accompagner l’utilisation et contrôler les usages, il faut affirmer le cadre de réflexion dès le départ et avoir une gouvernance solide ». C’est donc la revue des acteurs, des processus, mais aussi de la réglementation applicable, et en son absence de l’éthique propre à l’entreprise. Les RH doivent être parties prenantes dès le départ, selon Maurice Le Maire, Senior Director HR chez SIA Partners. « Elles doivent concevoir les lignes directrices et faire émerger le pool de talents qualifiés ». Nouer des partenariats avec des institutions et organisations qui ont déjà mis au point un socle de réflexion sur l’IA peut aussi s’avérer payant.
Un contrôle des biais dès la programmation des algorithmes
En amont de l’utilisation, la mise en place des mécanismes de contournement ou de contrôle des biais se fait dès la programmation des algorithmes.
Comment avoir une connaissance initiale du sujet à traiter, pour déployer des algorithmes pertinents ? Faire appel à des programmateurs qui ont « plusieurs casquettes, des data scientists, formés également à la sociologie ou à la philosophie » peut s’avérer un véritable atout, conseille Jean-Noel Chaintreuil, expert du Futur du Travail. Mais comme nul n’est doté d’une vision à 360 degrés, étoffer les équipes de profils différents, mixtes, est clé. « A chacun son métier », oppose Adrien Grimal. « Les data scientists doivent accueillir dans leurs équipes d’autres disciplines, comme des spécialistes en psychologie ou en sociologie pour écarter les biais individuels ». C’est aussi le cas des docteurs en éthique, désormais pourchassés par les start-ups qui préparent les IA.
Mettre en place des équipes pluridisciplinaires lors de réunions préparatoires permet ainsi de recueillir l’ensemble des besoins métiers et ne pas avoir de vision tronquée de l’utilisation qui sera faite de l’outil. Cela permet aussi une programmation la plus éthique possible. La revue des compétences nécessaires à l’entreprise doit être faite en amont des projets et de manière continue.
Une fois conçus les algorithmes, il faut les entraîner, et veiller au jeu de données. L’IA se nourrit des historiques, du passé, il conviendrait donc de veiller à ce que ce passé soit le moins biaisé possible. « Les algorithmes sont entraînés sur des volumes importants de données, il faut être sensibilisés aux biais qu’ils peuvent contenir », expose Adrien Grimal. « Par exemple, si je demande à deux outils d’IA générative une photo d’une classe de primaire en 2050, je vais obtenir des résultats très différents. Si on prend l’exemple de Baidu, il faut avoir conscience que la censure aura élagué le jeu de données et donc les réponses obtenues ». Pour entraîner l’algorithme, il faudrait alors privilégier des « jeux de données les plus exhaustifs possibles, peu importe l’algorithme à développer. Quitte à supprimer des données par la suite », expose Valentin Bourget, fondateur d’Interlyber.
Former et sensibiliser à l’éthique et à la diversité des usages
Autre point clefs : former ceux qui vont utiliser, contrôler, ajuster l’outil d’intelligence artificielle. Former les équipes au maniement du prompt est le plus évident. L’IA ne répond qu’aux questions qu’on lui pose, encore faut-il qu’elles lui soient posées le plus correctement posées. Mais cela ne suffit pas. Les RH ont un rôle à jouer pour intégrer les concepts liés à l’IA dans les processus de recrutement et d’intégration selon Maurice Le Maire. Elles ont aussi la charge de promouvoir la formation continue pour maintenir la sensibilisation aux enjeux liés à l’IA.
C’est une sensibilisation fonctionnelle dont il s’agit au départ, pour que les équipes comprennent la nature des algorithmes qui structurent les outils d’IA. On utilise mieux lorsqu’on comprend comment ont été conçus les différents instruments à notre disposition. Et dans un deuxième temps, sensibiliser et former les équipes à l’éthique est primordiale. Cette formation doit avoir été réalisée avant la première utilisation de l’outil dans les activités quotidiennes. « Il faudrait par exemple inciter à la diversité dans les usages », conseille Adrien Grimal. « On ne peut pas se fier à un seul outil d’IA générative. Il faut inciter l’utilisateur, qui est aussi consommateur, à varier ses sources, et à ne pas se limiter à une seule solution. À ce niveau de la chaîne, chacun est responsable ». En fil rouge, l’idée que ’utilisateur doit garder son esprit critique dans son rapport à la solution.
Contrôler les résultats
Enfin l’aval, il est aussi possible de mettre en place des garde-fous. C’est le monitoring, le contrôle des résultats produits par la machine. Un contrôle qui ne peut être qu’humain. Ces contrôles réguliers permettent de remonter les alertes aux développeurs et d’effectuer les rectifications nécessaires, que ce soit dans les données injectées ou dans la cohérence des réponses. Ce qui permettra par la suite d’effectuer les rectifications nécessaires.
Ces actions de sensibilisation, formation, contrôle sont coûteux : « C’est un investissement temps homme relativement cher, car il va y avoir du temps humain dégagé des activités opérationnelles», relève Jean-Noel Chaintreuil. « Mais ce sont des investissements auxquels on ne peut pas couper », achève le spécialiste du futur du travail. « Sinon le risque d’utiliser un outil biaisé qui continuera de cloner les biais humains est réel ».