Un mois après la parution du rapport annuel de la WeProtect Global Alliance, son directeur exécutif se félicite des retombées politiques et médiatiques. Iain Drennan alerte particulièrement sur l’utilisation de l’intelligence artificielle générative par des délinquants sexuels du monde entier pour soumettre des mineurs à leurs pulsions. Il appelle les États à une réglementation ferme et harmonisée, et les acteurs du privé à la mobilisation.
Votre dernier rapport est publié depuis un mois maintenant. Quels impacts concrets avez-vous pu observer jusqu’à présent ?
L’impact le plus mesurable c’est que nous avons réussi à ce qu’émerge le sujet de la violence sexuelle numérique à l’égard des enfants. On peut relever que notre rapport a été cité et commenté lors du sommet consacré à l’intelligence artificielle générative qui s’est tenu à Londres le 9 novembre dernier. Mais notre principale intention avec notre dernière publication était de produire un discours pédagogique et que les acteurs concernés montent en connaissance sur ce problème global qui frappe l’ensemble de nos sociétés. Ce qui nous a aussi interpellé, c’est de constater que des publications extrêmement différentes se sont intéressées à nos travaux. Des magazines lifestyle, des sites dédiés à l’informatique, des médias généralistes. Nous l’attribuons au caractère global de la menace qui pèse sur nos enfants.
Vous préconisez l’adoption d’une approche « Sécurité dès la conception » (« Safety by design » en anglais), une harmonisation de la réglementation d’Internet à l’échelle mondiale et une approche de santé publique pour prévenir cette violence spécifique. Cet appel a-t-il trouvé un écho quelque part ?
Nous pensons que le concept de « safety by design », qui a été élaboré en Australie, est en train de gagner de nombreux partisans. Pourquoi ? Parce qu’il est on ne peut plus simple : il s’agit de prévoir la protection des mineurs dès la conception, qu’il s’agisse d’un terminal ou d’un logiciel. Il est évidemment plus coûteux et difficile d’ajouter cette protection à un produit déjà conçu. Les principes de ce concept sont en train de se répandre. L’exemple de TikTok est de ce point de vue intéressant. Les paramètres par défaut sont programmés pour la tranche d’âge 13-16 ans.
A lire aussi : Pourquoi faire appel à un éthicien de l’IA ?
Les signalements de matériel d’abus sexuels sur enfants ont augmenté de 87 % depuis 2019. Est-ce une augmentation réelle ou s’agit-il d’une meilleure détection et catégorisation ?
Les deux, bien sûr. La prise de conscience collective se matérialise dans ce chiffre, et ce à mesure que de plus en plus d’enfants asiatiques et africains accèdent au web. Mais nous avons également à notre disposition de nombreux autres chiffres qui mettent en évidence une augmentation sensible de la production de ce type de matériels. Et puis de plus en plus de grandes entreprises et plateformes tiennent davantage compte des signalements de leurs utilisateurs.
L’IA générative, au cœur de nombreuses préoccupations, permet la manipulation d’images d’enfants pour les inclure dans des vidéos pédopornographiques. Voyez-vous cela comme une tendance éphémère ou assistons-nous à une hausse significative ?
Ce n’est malheureusement pas une tendance éphémère ! L’observatoire de l’université de Stanford dédié à l’étude d’Internet (https://cyber.fsi.stanford.edu/io) alerte d’ailleurs sur le moment critique que nous sommes sur le point d’atteindre, et ce pour plusieurs raisons. D’abord parce que ceux qui créent ce type de contenus sont prêts à se servir de n’importe quelle technologie à leur disposition pour parvenir à leurs fins. Plus l’IA générative sera simple d’utilisation, plus elle sera… utilisée pour fabriquer des contenus pédophiles. Ce phénomène est amplifié par la massification de la vidéo. L’intelligence artificielle peut également leur permettre de trouver le moyen de contourner les lois existantes mais aussi les politiques de modérations de nombreuses plateformes, voire de savoir où trouver ce type de contenus. Mais un nouveau danger émerge du fait de l’utilisation globale de l’IA. Pour les cellules policières d’aide aux mineurs abusés, ainsi que pour les différents services sociaux, il va être de plus en plus difficile de différencier un contenu « synthétique » d’un autre où un enfant de chair et d’os sera violé. Ces services sont déjà débordés et vont devoir gérer un énorme flux d’information. Et ils ne sont, pour la plupart, pas encore formés à détecter cette différence.
A lire aussi : [Edito] Qui va éduquer les toutes jeunes IA ?
Quels moyens efficaces les États ont-ils à leur disposition pour lutter contre un tel fléau ?
Leur périmètre d’action est par nature limité. Chaque acteur pris individuellement, même lorsqu’il s’agit des États-Unis, de Google ou de Meta, ne peut pas endiguer seul ce problème car il s’agit de crimes transfrontaliers. Et c’est exactement la raison pour laquelle nous existons. Nous encourageons les États à mettre en place des législations réellement efficaces et à allouer les moyens nécessaires pour qu’elles soient appliquées. Nous insistons aussi sur le fait que ces lois soient les plus cohérentes possibles, tant au niveau régional que mondial. Ces harmonisations permettent effectivement une meilleure collaboration, y compris sur la terminologie. Par exemple, sur ce qu’on appelle le « grooming », c’est-à-dire la manière dont un adulte établit une relation avec un enfant en vue de l’abuser sexuellement. Ce qui peut se produire dans l’environnement familial d’un mineur mais aussi en ligne. De ce point de vue, la démarche de l’Union Européenne (UE) sur le sujet est absolument essentielle. Le rôle de la France dans ce travail est central du fait de sa maturité sur le sujet, en particulier sur la protection numérique des plus jeunes, sur les vérifications d’âge notamment pour les sites pornographiques. Si 27 États se mettent d’accord sur des règles communes solides concernant les abus sexuels sur les enfants, cela peut créer une impulsion majeure et servir de référence sur le plan international. J’espère que dans le rapport 2024 de notre organisation, nous pourrons nous féliciter de l’adoption de cette réglementation au sein de l’UE.
Comment les entreprises leaders de la tech (pas seulement les grandes plateformes) ou les responsables informatiques peuvent-ils s’impliquer ?
Il faut d’abord que ces acteurs réalisent qu’il s’agit d’un risque systémique pour leur organisation, au même titre que des obligations légales ou des questions d’utilisation de brevets. Le partage d’expérience entre pairs sur ce sujet est aussi clé. Il y a par exemple des coalitions d’entreprises telles que la « Tech Coalition » (https://www.technologycoalition.org) qui permet d’échanger sur des solutions pouvant s’appliquer à l’ensemble de ses membres. Elle permet aussi d’aider les plus petites entreprises à se prémunir contre ce type de risques en s’inspirant de ce que mettent en place les grands groupes. On peut aussi citer l’engagement des membres de l’initiative « Digital Trust and Safety Partnership » (https://dtspartnership.org). Nous encourageons surtout l’ensemble des acteurs du privé, mais aussi des organisations non gouvernementales, à adhérer à notre organisation et à appliquer les recommandations que nous formulons dans notre dernier rapport.