Deux éthiciens de l’intelligence artificielle, Enrico Panaï et Emmanuel R. Goffi, membres du Hub France IA et traducteurs du livre « L’éthique de l’intelligence artificielle » de Luciano Floridi (éditions Mimesis) nous font découvrir leur métier. Ils expliquent comment les entreprises peuvent s’en saisir face à la vague de l’intelligence artificielle générative.
Le métier d’éthicien de l’intelligence artificielle intrigue. Les dirigeants d’entreprise le comprennent-ils ?
Emmanuel R. Goffi. Beaucoup pensent que l’éthique relève du « bon sens ». Ce n’est pas le cas ! L’éthique n’est ni du bon sens, ni de la communication, ni de la politique, ni du droit. Notre discipline repose avant tout sur la philosophie. Seule la philosophie peut apporter la méthodologie nécessaire dans un monde complexe. Nous avons besoin d’outils pour réfléchir : nous avons besoin d’éthique !
C’est important de clarifier ce malentendu. De même pour la définition de l’intelligence artificielle… Nous sommes peu à avoir la même. Il y a un vrai manque de rigueur sur le vocabulaire, les définitions des mots et concepts.
Or, si les entreprises qui s’emparent du sujet IA ne commencent pas par poser les bases, autant imaginer un « code de la route » pour les ovnis. Vous ne pouvez pas mettre en place des règles, sans savoir de quoi vous parlez, ni comment ça fonctionne… ni même si ça existe. La première chose que nous amenons en entreprise, c’est donc un langage précis.
A lire aussi : Grâce au bruitage, le CEA-List crée un écosystème de confiance pour entraîner des IA
Pourquoi a-t-on besoin de la philosophie en entreprise ?
Enrico Panaï. Nous entrons souvent par la « petite porte », celle de la conformité : on nous appelle pour une problématique de Data Privacy ou de diversité. Nos premiers interlocuteurs sont fréquemment des juristes. Et ce n’est pas un problème : à nous ensuite d’élargir le spectre. L’éthique appliquée à l’IA couvre un très large champ de considérations.
Quand on affirme que l’on veut limiter les biais, de quels biais s’agit-il ? Les biais cognitifs sont au nombre de 188 ! Sans parler des biais scientifiques ou algorithmiques.
Il faut aussi savoir nous extraire d’un ancrage culturel. Ce qui est vrai pour un Français, ne sera pas vrai pour un Chinois ou un Australien. S’en aller promouvoir l’égalité hommes-femmes en Arabie Saoudite, ou lutter contre la discrimination sur la couleur de peau au Mali, avec une vision d’occidental, est absurde.
Nous n’arrivons jamais en affirmant que nous détenons la vérité. Nous intervenons sur tout ce qui n’est pas couvert par le droit. L’éthique vient à la fois avant le droit, parce qu’il faut s’être forgé une vision du monde pour écrire une règle. Mais elle vient aussi après : pour la mise en application de cette règle et pour suivre son évolution.
Nous travaillons avec une matière première particulière : l’incertitude. Nous ajoutons aux questions que se pose déjà l’entreprise des interrogations nouvelles.
Alors que l’IA Générative entre dans l’entreprise à tous les étages, quels conseils donneriez-vous aux professionnels ?
Emmanuel R. Goffi. Première recommandation : remettez-vous en cause. En matière d’IA, nous avons tous tendance à déplacer la responsabilité sur l’outil. Jamais sur nous-même. Or, c’est bien l’usage que nous faisons de ces outils qui décidera de l’avenir. Avant d’interagir avec ChatGPT, soyez conscient des limites du système, comme de vos propres limites. Et rappelez-vous que c’est l’être humain qui donne du sens. ChatGPT nous fournit des données, pas des informations. L’être humain mobilise une donnée pour en faire une information, c’est-à-dire une donnée utile. Il est vraiment important de sensibiliser vos équipes à cet aspect-là.
Autre conseil, entourez-vous de profils différents du vôtre, à commencer par des éthiciens bien sûr… Nous sommes comme les psychologues : nous n’allons pas parler de vos problèmes à l’extérieur. Et nous n’allons pas vous faire lire Kant, non plus ! Nous ne venons pas projeter nos envies et nos convictions. Nous ne sommes pas des activistes. Nous sommes là pour mettre en place les conditions de la délibération. Pour éclairer la décision. Pas pour dire « voilà ce que tu dois faire ». Une entreprise peut très bien choisir de préférer le business à la diversité. Mais c’est important qu’elle en soit consciente. Nous rendons visibles les principes éthiques. Parfois, la décision n’est pas celle que nous aurions prise. Et cela n’est pas gênant. »
Un nouveau langage à inventer
Avant même son livre « L’éthique de l’intelligence artificielle », Luciano Floridi a introduit beaucoup de concepts dans la sphère philosophique pour étayer sa philosophie de l’information. Il est ainsi à l’origine d’une série de néologismes qui n’ont pas encore été adoptés dans la langue française : « Onlife », « infosphére », « ré-ontologisation », « bluewashing », « hyperhistoire », « inforg », « quatrième révolution », « entropie méthaphysique », « éthique douce »…
Chacun de ces termes fait l’objet d’un article, d’une recherche ou d’un livre. Certains concepts ont même inspiré des événements. L’onlife qui représente par exemple l’expérience de l’homme dans des sociétés hyper-historiques où il « ne fait plus la distinction entre online et offline » est le titre d’un festival organisé par le journal italien La Repubblica.