Le sujet n’a pas eu beaucoup d’écho de ce côté-ci de l’Atlantique ; il fait pourtant beaucoup parler chez nos amis américains. Fin février, la Cour suprême des États-Unis s’est en effet penchée sur une affaire, Gonzalez vs Google, dont les conclusions pourraient changer une des logiques fondamentales du fonctionnement d’Internet pour les grandes plateformes.
La famille Gonzalez a perdu sa fille Nohemi lors des attentats de Paris en 2015. Elle attaque depuis Google en tant que propriétaire de Youtube, en estimant que les algorithmes derrière les recommandations des vidéos de la plateforme ont contribué à favoriser le recrutement des terroristes de Daech, en violation de l’Antiterrorism Act américain. Cette affaire met sur le devant de la scène la « Section 230 », c’est-à-dire la loi de 1996 qui protège les plateformes américaines en ne les rendant pas responsables du contenu qu’elles hébergent. Un point très discuté en Europe quand il est question de prévention des violences en ligne. C’est la première fois que la Cour suprême est amenée à se prononcer sur la Section 230 et, lors des auditions, elle a laissé apparaître son malaise autour de la question…
« [Ces juges] ne sont pas les neuf plus grands experts de l’Internet » a par exemple souligné la juge Elena Kagan, alors que la Cour pourrait renvoyer l’affaire devant les cours inférieures ou bien laisser le Congrès américain définir de nouvelles règles.
Le cœur de l’affaire peut se résumer ainsi : la protection accordée par la Section 230 concernant l’hébergement des contenus, s’étend-elle de facto aux algorithmes de recommandation qui permettent d’y accéder ? Pour le juge Clarence Thomas, si les algorithmes ne sont pas différents entre la recommandation d’une vidéo de cuisine et la recommandation d’une vidéo pro-Daech, difficile de tenir la plateforme pour responsable dans le second cas. C’est l’argument retenu jusque-là par la Cour d’appel du 9e Circuit, la dernière à avoir rendu son jugement sur la question. Mais le juge Neil Gorsuch a pour sa part montré son scepticisme sur la capacité à mesurer la neutralité des outils et il a repoussé l’idée que les algorithmes sont fondamentalement neutres. Ces discussions ne laissent donc pas entrevoir les conclusions qui seront présentées en juin.
L’affaire est d’autant plus suivie, qu’elle est accolée à une seconde, Twitter v. Taamneh, portant des interrogations fort similaires. La plateforme Twitter est ainsi attaquée par une famille jordanienne qui a perdu un de ses membres lors d’un attentat à Istanbul.
Par ailleurs, la problématique de la neutralité des algorithmes a été remise sur le devant de la scène ces dernières semaines, du fait de l’essor médiatique des « IA génératives » comme ChatGPT. Le fait que cette dernière refuse de répondre à certaines questions ou à raconter une blague à la manière d’une humoriste française comme Blanche Gardin, jugée offensante, a provoqué de nombreux questionnements. Quand Elon Musk estime qu’il lui faut développer une alternative moins « woke » à ChatGPT, la neutralité des outils qui vont constituer le cœur de l’Internet de demain se retrouve bel est bien au centre du jeu.
Bien que cela ne soit pas l’hypothèse la plus probable, du fait de la prudence des juges sur la question, une décision de la Cour suprême des États-Unis ouvrant la voie à une remise en cause de la Section 230 aurait des conséquences en cascade sur la structuration de l’Internet.
Cet édito est issu de notre newsletter de la semaine du 27 février au 03 mars 2023.
Découvrez là dès maintenant : newsletter-03mars/alliancy.fr
Et pour ne pas rater la prochaine newsletter Alliancy, inscrivez-vous : alliancy.fr/abonnement-newsletter