Déjà tous « augmentés » par le numérique, nous allons l’être encore plus par l’intelligence artificielle générative dans les prochains mois et années. L’ère des collaborateurs augmentés réjouit autant qu’elle inquiète les entreprises. Mais, dans l’ombre de ces développements économiques et sociaux majeurs du numérique, se joue aussi une réalité cruelle dont nous devons tous avoir conscience : les prédateurs eux aussi bénéficient de cet élan.
Le 17 octobre est paru le rapport 2023 de la WeProtect Global Alliance, qui regroupe 66 entreprises privées, 92 organisations de la société civile et 9 organisations intergouvernementales représentant 102 pays. Son principal message est clair et glaçant : une escalade alarmante des abus sexuels d’enfants en ligne se produit depuis 2020 et nous sommes aux prémices d’une explosion significative alimentée par les nouveaux usages technologiques, en particulier liés à l’IA générative.
Le rapport, dont c’est la 4e édition, documente les risques auxquels les enfants sont confrontés en ligne : il révèle une augmentation de 87 % en trois ans du volume de signalements de « matériels d’abus sexuels sur enfants », pour atteindre plus de 32 millions de cas dans le monde en 2023. Dans 60 % des cas, les abus sont perpétrés par des personnes connues de l’enfant, même si le risque de mauvaises rencontres avec des « anonymes » sur les réseaux, en particulier sociaux et de jeux, est également très important. Surtout, le rapport souligne que les enfants souffrent d’un décalage important entre la perception du risque et les dangers effectivement encourus, notamment chez les jeunes garçons. Cela n’est pas sans rappeler l’existence de tels décalages chez les adultes quand il est question des risques numériques, dans leur sphère personnelle ou professionnelle : un parallèle qui éclaire en creux l’influence de la culture numérique des parents sur celle de leurs enfants.
Ce qui inquiète le plus la WeProtect Global Alliance, c’est que nous pourrions être à l’aube d’une véritable explosion de ces violences. Aujourd’hui, moins de 1 % des fichiers d’abus proviennent d’images générées par ordinateur. Mais depuis août 2022 et la démocratisation de l’IAG, ce volume a augmenté de façon exponentielle. Les entreprises du numérique doivent donc urgemment prendre des mesures pour que leurs IA ne soient pas détournées à des fins criminelles. Que peuvent faire d’autres les organisations pour lutter alors que nous entrons dans l’ère des prédateurs augmentés ?
En début d’année, Alliancy avait déjà posé la question, alors que bien trop souvent les violences et abus sexuels en ligne sont vus uniquement comme un problème relatif à la sphère privée et à une question de sécurité publique. « Les entreprises privées peuvent peser », expliquait alors Henri Verdier, ambassadeur pour le numérique de la France. « Un exemple qui vient à l’esprit, c’est la façon dont Mastercard et Visa ont fait retirer des millions de contenus de sites pornographiques en quelques jours seulement, en agissant sur les sources de revenus d’une plateforme comme Pornhub », illustrait-il.
Les chiffres recueillis par le rapport WeProtect Global Alliance montrent cependant que l’auto-régulation des acteurs et en particulier celle des grandes plateformes ne suffit pas. Hasard du calendrier, le 17 octobre, l’Assemblée nationale approuvait en vote solennel le projet de loi pour sécuriser et réguler l’espace numérique. Ce texte adapte à la législation française les règlements européens du Digital Services Act (DSA) et le Digital Markets Act (DMA). Les premières applications de l’AI Act, qui doit définir les contours de l’intelligence artificielle de confiance et de ses usages responsables, et a été adopté par les députés européens mi-juin 2023, ne se verront, elles, qu’à l’horizon 2026 au plus tôt. Au rythme où croissent les cyberviolences sur les plus jeunes, peut-on vraiment se permettre d’attendre aussi longtemps ?