Notre chroniqueur Imed Boughzala détaille la progression exponentielle des cas de deepfake dans l’actualité et les risques que cette utilisation de l’IA représente… d’autant plus à l’ère naissante du Métavers.
Evoquées dans une précédente chronique, les Fake news, infox, fausses nouvelles, fausses informations, informations fallacieuses, ou canards, sont des nouvelles mensongères diffusées dans le but de manipuler ou de tromper le public, dans un but mercantile, (géo-) politique ou encore idéologique. Leur degré de nuisance et de dégâts dépend de la sophistication informationnelle et technologique de leur contenu pour être détectées/identifiées, décodées/déchiffrées, démasquées, évitées, stoppées, neutralisées, et au mieux supprimées… Retenons ici le mot Fake (« contrefait »).
Aujourd’hui, on entend beaucoup de promesses autour du Deep Learning, une sorte de Machine Learning plus avancé, ou même plus loin avec le Quantum Deep Learning. Il s’agit d’un « ensemble de méthodes d’apprentissage automatique tentant de modéliser avec un haut niveau d’abstraction des données grâce à des architectures articulées de différentes transformations non linéaires. Ces techniques ont permis des progrès importants et rapides dans les domaines de l’analyse du signal sonore ou visuel et notamment de la reconnaissance faciale, de la reconnaissance vocale, de la vision par ordinateur, du traitement automatisé du langage ». Retenons ici le mot Deep (profond).
Par ailleurs, on désigne une DeepTech, une jeune pousse (Start-up) qui développe un produit basé sur une innovation d’ingénierie significative, de rupture ou disruptive. Trois grands critères distinguent une startup deeptech des autres : 1. une forte valeur ajoutée du produit sur son marché, 2. la technologie exploitée est souvent protégée par un brevet et 3. un lien étroit avec les recherches scientifiques (collaboration, licence de brevet, chercheur entrepreneur…).
Infox, canulars, cyber-malveillances…
Lorsque le Fake prend le dessus sur le Deep, cela donne le deepfake ou hyper-trucage, une technologie/technique de rupture, inventée en 2014 par le chercheur Ian Goodfellow, appelée GAN (Generative Adverarial Networks ou réseaux adverses génératifs) une classe d’algorithmes d’apprentissage non supervisé qui permettent de générer des images avec un fort degré de réalisme. Il s’agit d’une technique de synthèse multimédia reposant sur l’intelligence artificielle (IA). Elle peut servir à superposer des fichiers vidéo ou audio existants sur d’autres fichiers vidéo (par exemple changer le visage d’une personne sur une vidéo) ou audio (par exemple reproduire la voix d’une personne pour lui faire dire des choses inventées). Cette technique de morphing a été utilisée initialement dans le monde cinématographique pour le doublage ou pour des émissions humoristiques.
Cette même technique peut être utilisée aussi pour créer des infox et des canulars malveillants. Cela rappelle la vidéo récente du président Volodymyr Zelensky, lui prêtant de faux propos, quant au dépôt des armes de son armée, sur une chaine ukrainienne victime d’un piratage. La vidéo, devenue virale, a été supprimée par Facebook par la suite.
Selon cette technologie, deux algorithmes s’entraînent mutuellement : l’un tente de fabriquer des contrefaçons aussi fiables que possible ; l’autre tente de détecter les faux. De cette façon, les deux algorithmes s’améliorent ensemble au fil du temps grâce à leur entraînement respectif. Plus le nombre d’échantillons disponibles augmente, plus l’amélioration de ceux-ci est importante. Le phénomène du deepfake est officiellement né à l’automne 2017 et est apparue sur le site web Reddit. Depuis 2017, le nombre de deepfakes augmente considérablement. D’après les chercheurs de la société Deeptrace, le nombre de vidéos deepfakes double presque annuellement depuis 2019.
Les risques liés au deepfake
Grâce à l’IA, il est très facile pour chacun de créer des deepfakes sans forcément une connaissance technique particulière, en téléchargeant tout simplement une application presque basique comme FakeApp ou FaceMorpher. A travers l’analyse des mouvements du visage, l’algorithme de l’application permet assez simplement de le « rajeunir » ou le « vieillir ». Ce ne sont pas des deepfakes élaborés permettant de créer de faux contenus qui peuvent être compromettant, mais ceux-ci deviendront de plus en plus réalistes au fur et à mesure des évolutions technologiques, et donc de plus en plus problématiques… Avec l’avènement des fakes news et ses effets néfastes sur les réseaux sociaux, la diffusion de deepfake sur le web constitue donc une nouvelle menace technologique. Manipulation, désinformation, humiliation, diffamation… les dangers des deepfakes seront de plus en plus nombreux comme la création de fausses vidéos érotiques (sextapes), mettant en scène des célébrités (ou pas), et de la pornodivulgation (i.e. revenge porn).
Une vidéo prétendant montrer la Première ministre néo-zélandaise Jacinda Ardern en train de fumer du crack, cocaïne sous forme de cristaux, est par exemple devenue virale l’été dernier. Le visage de la dirigeante avait en réalité été superposé à celui d’une youtubeuse sur des images originelles tournées en 2019.
Pour endiguer le phénomène, les principaux géants du web préparent la riposte. Des scientifiques de Facebook ont présenté en juin dernier une méthode qui doit permettre, grâce à l’intelligence artificielle (IA), de débusquer les « deepfakes » ainsi que de déterminer leur origine.
Microsoft a présenté l’année dernière un logiciel qui peut aider à repérer les « deepfakes » photo ou vidéo, tandis que Google avait rendu public fin 2019 des milliers de « deepfakes » réalisés par ses équipes pour les mettre à disposition des ingénieurs et chercheurs qui veulent développer des méthodes de détection automatique des images manipulées.
Le Métavers à l’épreuve des deepfakes
Aux Etats-Unis, la menace avait été prise très au sérieux à l’approche des élections de mi-mandat en 2018. Trois membres du Congrès américain avaient envoyé un courrier au patron du renseignement, Daniel R. Coats, pour lui demander la rédaction d’un rapport sur ce phénomène. « Nous sommes très inquiets que la technologie deepfake puisse être déployée bientôt par des acteurs étrangers malveillants », écrivaient Adam B. Schiff, Stephanie Murphy (démocrates) et Carlos Curbelo (républicain) qui craignaient des opérations de « chantage » ciblant des individus ou des campagnes de « désinformation » pouvant menacer la « sécurité nationale ».
En somme, si aujourd’hui, le deepfake est déjà utilisé dans les fausses informations/publicités, les fausses déclarations de politiques, dans la pornodivulgation… cette technique serait plus néfaste avec l’innovation que représente les métavers. Avec l’avancée des technologies de la réalité étendue (augmentée, virtuelle ou mixte) l’usurpation d’identité serait d’usage pour une fausse représentation lors d’une réunion, une transaction ou encore lors d’un examen à distance pour un étudiant sur le campus virtuel d’une université du futur.
Encore une fois, développer l’intelligence digitale chez les citoyens demeure le seul moyen pour préserver des relations sociales personnelle et professionnelle saines et durables. Cela va de même au niveau des entreprises et même des états.