La confiance est un préalable à l’adoption et au développement de l’intelligence artificielle. Pour créer cette confiance, l’Europe planche sur des normes. Les entreprises anticipent une future régulation et lancent de premières démarches sur l’éthique. Mais celles-ci restent balbutiantes.
L’intelligence artificielle est vouée à occuper une place croissante dans les organisations et dans la société dans son ensemble. Néanmoins, si sa valeur est perçue comme considérable, l’IA suscite aussi des inquiétudes en raison de ses dérives potentielles. L’éthique appliquée à l’intelligence artificielle et à ses usages se veut donc un moyen d’encadrer les projets et de réduire ces risques.
En Europe, la Commission réfléchit à de futures normes. Leur but : concilier les valeurs de ses Etats membres tout en préservant la compétitivité de ses entreprises. L’exercice peut tenir de l’acrobatie. Cette initiative inspire en tout cas des réserves de la part d’Emmanuel Goffi, co-directeur du Global AI Ethics Institute.
Les entreprises doivent s’emparer de l’éthique sans attendre la législation
L’éthicien note en outre que les réflexions autour de l’éthique restent naissantes, voire « floues ». Et l’AI Act européen, attendu d’ici deux à cinq ans, ne semble pas à ce jour contribuer à clarifier ce sujet. Ce texte « est extrêmement difficile à mettre en œuvre », car constitué essentiellement de grands principes, dont « l’opérationnalisation » est ardue.
Pour Emmanuel Goffi, la Commission a choisi, comme avec le RGPD quelques années auparavant, une stratégie « normative » pour se positionner face à la Chine et aux Etats-Unis sur le marché de l’intelligence artificielle. Mais surtout, « cette logorrhée juridique » n’est pas de nature à éclairer les entreprises sur cette question capitale de l’éthique.
Les organisations ne sont cependant pas condamnées à l’inactivité dans l’attente de règles plus précises de la part des institutions. L’éthicien encourage en effet à créer un « espace éthique » au sein de l’entreprise afin d’aller au-delà des aspects de conformité avec la régulation. Il encourage donc à mener « une réflexion profonde » en interne, notamment en se faisant accompagner d’un spécialiste de l’éthique.
« Quelles sont mes valeurs ? Quelles sont les valeurs que je veux transposer dans mon entreprise ? Quelles sont les limites que je me fixe au-delà de la conformité ? Dans quelles situations puis-je envisager de dépasser ces limites ? ». Voici certaines des questions qui devront être adressées dans le cadre de cet espace éthique, qui pourra prendre la forme d’un comité d’éthique, un « vrai ».
Chartes et comités d’éthique embarqués dans le développement de l’IA
C’est cette démarche qu’a d’ailleurs suivi la startup XXII spécialisée dans les technologies de vision par ordinateur. Les usages de celles-ci, dont la très polémique reconnaissance faciale, peuvent toucher à des domaines sensibles. Ses dirigeants, dont son fondateur William Eldin, ont absolument tenu à mener le débat de l’éthique en interne.
Un comité d’éthique a été constitué, comprenant notamment des intervenants externes. Une charte soumise et approuvée par l’ensemble du personnel a également été rédigée. Et la startup s’est aussi fixé des limites quant aux applications de ses solutions de computer vision. Elle s’interdit par exemple la reconnaissance faciale dans les lieux publics.
XXII a pu ainsi été amenée à refuser des contrats, contraires aux principes de sa charte (déclinée aujourd’hui sous forme d’une charte externe). Il ne s’agit pas seulement de grands principes. La charte se veut un document exploitable dans les opérations. Surtout, elle définit « les méthodologies d’apprentissage des algorithmes, mais aussi les sources de données et les moyens de les collecter », détaille William Eldin, PDG de XXII.
Axionable, lui aussi un éditeur de technologies d’IA (« durable et responsable »), a pris position sur l’éthique. Mais pas question cependant de se limiter à la signature de chartes. Pour son PDG, Gwendal Bihan, l’éthique doit s’inscrire dans les processus internes de l’entreprise et se décliner de manière opérationnelle.
Former à l’éthique les futurs spécialistes de l’IA
Une démarche de certification auprès d’un organisme certificateur est ainsi en cours pour confirmer le respect de la charte dans la conception et la mise en production des IA. Cette certification doit être un gage de confiance pour les clients, les investisseurs et les collaborateurs. La charte n’est en effet qu’un début. L’intégration dans les process constitue une autre étape, plus complexe à concrétiser.
Concernant les biais cognitifs ou sexistes, par exemple, une charte touche rapidement ses limites, juge Gwendal Bihan. « Si vous voulez débiaiser et redresser votre jeu de données, il faut des outils. Il est nécessaire également de former les collaborateurs », cite notamment le dirigeant. Les data scientists font ainsi partie des professionnels à sensibiliser sur l’éthique et les biais.
Les intervenants d’Alliancy Connect constatent d’ailleurs que la formation initiale des experts de l’IA souffre d’une véritable carence en la matière. « Les universités forment des personnes qui vont finalement assurer la conformité aux règles, mais pas la réflexion éthique », considère Emmanuel Goffi.
« Il est indispensable que les concepteurs aient conscience de ces enjeux d’éthique et de biais. Il faut donc accompagner et former. Mais aujourd’hui, c’est une carence. La marche à franchir est grande », confirme William Eldin. Les jeunes professionnels de la Data et de l’IA se montrent cependant sensibles à ces préoccupations, constatent Axionable et XXII lors des entretiens de recrutement. La maturité devrait donc progresser. Au même rythme que l’adoption de l’IA ?