Des recommandations pour une IA éthique 

Le think & do tank ImpactAI sort son 3ème rapport annuel autour de l’intelligence artificielle responsable. Le collectif d’experts donne ses bonnes pratiques à mettre en œuvre pour que l’IA générative fasse preuve de transparence.  

ImpactAI, à l’instar de l’Union Européenne avec l’IA Act, mise sur le développement de l’Intelligence Artificielle autour de la transparence. Avec près de 70 adhérents issus de différents secteurs, on retrouve, parmi les 21 fondateurs du collectif, des acteurs comme Carrefour, Axa, Orange, SNCF, Capgemini ou encore l’école d’ingénieurs Epita. Dans leur troisième rapport, les experts décrètent notamment “qu’il faut maximiser l’intelligibilité de l’IA.” Ledit rapport donne ainsi ses recommandations pour augmenter la transparence d’une IA souvent indéchiffrable. Microsoft, autre membre fondateur, révèle vouloir investir dans une IA générative dotée d’une approche d’explications pertinentes facilitant la  vérification de ses résultats.  

Pour un humain mieux préparé … 

« Notre engagement en faveur d’une IA responsable donne la priorité à maintenir les humains, non seulement dans la boucle, mais aussi au centre des systèmes d’IA », précise Natasha Crampton, responsable en chef de l’IA chez Microsoft. La transparence autour des processus d’apprentissage et des données utilisées lors de l’entraînement des modèles est de plus en plus réclamée. En effet, l’humain étant “la dernière ligne de défense contre les défaillances des systèmes d’IA”, comme l’explique le rapport, sa compréhension des mécanismes de l’IA est essentielle au contrôle de cette dernière. Contraindre l’IA à citer ses sources, ou encore à vérifier ses informations après d’outils extérieurs, permet de contrôler les résultats obtenus.  

… aux inexactitudes et aux réponses émotives 

AI-vidence, une start-up dédiée à l’explicabilité des IA, suggère d’adapter l’interface à chaque interlocuteur, à sa culture et aux enjeux de sa profession. Le “Brief de l’IA responsable” précise aussi la nécessité de prévenir l’utilisateur qu’il communique avec une IA, une obligation présente dans l’IA Act. Dans la même idée, certains rappels doivent être faits aux utilisateurs, sur leur responsabilité, l’inexactitude des réponses de l’IA générative mais aussi sur la possibilité des modèles de produire des déclarations émotives semblables à des êtres humains. Pour ce dernier point, des mécanismes peuvent être mis en œuvre afin de réduire le risque d’avoir de tels résultats.