Notre chroniqueur Imed Boughzala détaille la progression exponentielle des cas de deepfake dans l’actualité et les risques que cette utilisation de l’IA représente… d’autant plus à l’ère naissante du Métavers.
Aujourd’hui, on entend beaucoup de promesses autour du Deep Learning, une sorte de Machine Learning plus avancé, ou même plus loin avec le Quantum Deep Learning. Il s’agit d’un « ensemble de méthodes d’apprentissage automatique tentant de modéliser avec un haut niveau d’abstraction des données grâce à des architectures articulées de différentes transformations non linéaires. Ces techniques ont permis des progrès importants et rapides dans les domaines de l’analyse du signal sonore ou visuel et notamment de la reconnaissance faciale, de la reconnaissance vocale, de la vision par ordinateur, du traitement automatisé du langage ». Retenons ici le mot Deep (profond).
Par ailleurs, on désigne une DeepTech, une jeune pousse (Start-up) qui développe un produit basé sur une innovation d’ingénierie significative, de rupture ou disruptive. Trois grands critères distinguent une startup deeptech des autres : 1. une forte valeur ajoutée du produit sur son marché, 2. la technologie exploitée est souvent protégée par un brevet et 3. un lien étroit avec les recherches scientifiques (collaboration, licence de brevet, chercheur entrepreneur…).
Infox, canulars, cyber-malveillances…
Cette même technique peut être utilisée aussi pour créer des infox et des canulars malveillants. Cela rappelle la vidéo récente du président Volodymyr Zelensky, lui prêtant de faux propos, quant au dépôt des armes de son armée, sur une chaine ukrainienne victime d’un piratage. La vidéo, devenue virale, a été supprimée par Facebook par la suite.
Selon cette technologie, deux algorithmes s’entraînent mutuellement : l’un tente de fabriquer des contrefaçons aussi fiables que possible ; l’autre tente de détecter les faux. De cette façon, les deux algorithmes s’améliorent ensemble au fil du temps grâce à leur entraînement respectif. Plus le nombre d’échantillons disponibles augmente, plus l’amélioration de ceux-ci est importante. Le phénomène du deepfake est officiellement né à l’automne 2017 et est apparue sur le site web Reddit. Depuis 2017, le nombre de deepfakes augmente considérablement. D’après les chercheurs de la société Deeptrace, le nombre de vidéos deepfakes double presque annuellement depuis 2019.
Les risques liés au deepfake
Grâce à l’IA, il est très facile pour chacun de créer des deepfakes sans forcément une connaissance technique particulière, en téléchargeant tout simplement une application presque basique comme FakeApp ou FaceMorpher. A travers l’analyse des mouvements du visage, l’algorithme de l’application permet assez simplement de le « rajeunir » ou le « vieillir ». Ce ne sont pas des deepfakes élaborés permettant de créer de faux contenus qui peuvent être compromettant, mais ceux-ci deviendront de plus en plus réalistes au fur et à mesure des évolutions technologiques, et donc de plus en plus problématiques… Avec l’avènement des fakes news et ses effets néfastes sur les réseaux sociaux, la diffusion de deepfake sur le web constitue donc une nouvelle menace technologique. Manipulation, désinformation, humiliation, diffamation… les dangers des deepfakes seront de plus en plus nombreux comme la création de fausses vidéos érotiques (sextapes), mettant en scène des célébrités (ou pas), et de la pornodivulgation (i.e. revenge porn).
Une vidéo prétendant montrer la Première ministre néo-zélandaise Jacinda Ardern en train de fumer du crack, cocaïne sous forme de cristaux, est par exemple devenue virale l’été dernier. Le visage de la dirigeante avait en réalité été superposé à celui d’une youtubeuse sur des images originelles tournées en 2019.
Pour endiguer le phénomène, les principaux géants du web préparent la riposte. Des scientifiques de Facebook ont présenté en juin dernier une méthode qui doit permettre, grâce à l’intelligence artificielle (IA), de débusquer les « deepfakes » ainsi que de déterminer leur origine.
Microsoft a présenté l’année dernière un logiciel qui peut aider à repérer les « deepfakes » photo ou vidéo, tandis que Google avait rendu public fin 2019 des milliers de « deepfakes » réalisés par ses équipes pour les mettre à disposition des ingénieurs et chercheurs qui veulent développer des méthodes de détection automatique des images manipulées.
Le Métavers à l’épreuve des deepfakes
Aux Etats-Unis, la menace avait été prise très au sérieux à l’approche des élections de mi-mandat en 2018. Trois membres du Congrès américain avaient envoyé un courrier au patron du renseignement, Daniel R. Coats, pour lui demander la rédaction d’un rapport sur ce phénomène. « Nous sommes très inquiets que la technologie deepfake puisse être déployée bientôt par des acteurs étrangers malveillants », écrivaient Adam B. Schiff, Stephanie Murphy (démocrates) et Carlos Curbelo (républicain) qui craignaient des opérations de « chantage » ciblant des individus ou des campagnes de « désinformation » pouvant menacer la « sécurité nationale ».
En somme, si aujourd’hui, le deepfake est déjà utilisé dans les fausses informations/publicités, les fausses déclarations de politiques, dans la pornodivulgation… cette technique serait plus néfaste avec l’innovation que représente les métavers. Avec l’avancée des technologies de la réalité étendue (augmentée, virtuelle ou mixte) l’usurpation d’identité serait d’usage pour une fausse représentation lors d’une réunion, une transaction ou encore lors d’un examen à distance pour un étudiant sur le campus virtuel d’une université du futur.
Encore une fois, développer l’intelligence digitale chez les citoyens demeure le seul moyen pour préserver des relations sociales personnelle et professionnelle saines et durables. Cela va de même au niveau des entreprises et même des états.