Google a prévenu qu’un jugement en sa défaveur dans une affaire en cours devant la Cour suprême pourrait mettre en péril l’ensemble de l’internet en supprimant une protection essentielle contre les poursuites judiciaires liées à des décisions de modération de contenu faisant intervenir l’intelligence artificielle (IA).
L’article 230 de la loi sur la décence des communications de 1996 offre actuellement un « bouclier de responsabilité » général concernant la manière dont les entreprises modèrent le contenu sur leurs plateformes.
Cependant, comme le rapporte CNN, Google a écrit dans un document juridique que, si la Cour suprême devait donner raison au plaignant dans l’affaire Gonzalez contre Google, qui concerne les algorithmes de YouTube recommandant aux utilisateurs du contenu pro-ISIS, l’internet pourrait être envahi par du contenu dangereux, offensant et extrémiste.
L’automatisation de la modération
L’article 230, qui fait partie d’une loi vieille de près de 27 ans et qui a déjà fait l’objet d’une réforme par le président américain Joe Biden, n’est pas équipé pour légiférer sur les développements modernes tels que les algorithmes intelligents, et c’est là que les problèmes commencent.
Le cœur de l’argument de Google est qu’Internet s’est tellement développé depuis 1996 que l’intégration de l’intelligence artificielle dans les solutions de modération de contenu est devenue nécessaire. « Pratiquement aucun site web moderne ne fonctionnerait si les utilisateurs devaient trier eux-mêmes le contenu », déclare Google dans son dossier.
« L’abondance de contenu signifie que les entreprises technologiques doivent utiliser des algorithmes pour le présenter aux utilisateurs de manière gérable, qu’il s’agisse des résultats des moteurs de recherche, des offres de vols ou des recommandations d’emploi sur les sites d’emploi.
Google a également indiqué qu’en vertu de la législation en vigueur, les entreprises technologiques qui refusent tout simplement de modérer leurs plates-formes constituent un moyen parfaitement légal d’éviter toute responsabilité. Toutefois, cela fait courir à l’internet le risque de devenir un « cloaque virtuel ».
Le géant de la technologie a également souligné que les directives communautaires de YouTube désavouent expressément le terrorisme, les contenus pour adultes, la violence et « tout autre contenu dangereux ou offensant » et qu’il modifie en permanence ses algorithmes pour bloquer de manière préventive les contenus interdits.
Elle a également affirmé qu' »environ » 95 % des vidéos violant la « politique d’extrémisme violent » de YouTube ont été automatiquement détectées au deuxième trimestre 2022.
Néanmoins, les pétitionnaires de l’affaire affirment que YouTube n’a pas supprimé tous les contenus liés à Isis et, ce faisant, a contribué à la « montée en puissance d’ISIS ».
Dans une tentative de se distancer davantage de toute responsabilité sur ce point, Google a répondu que les algorithmes de YouTube recommandent du contenu aux utilisateurs en fonction des similitudes entre un élément de contenu et le contenu auquel un utilisateur s’intéresse déjà.
Il s’agit d’un cas complexe et, bien qu’il soit facile de souscrire à l’idée qu’Internet est devenu trop grand pour la modération manuelle, il est tout aussi convaincant de suggérer que les entreprises devraient être tenues responsables lorsque leurs solutions automatisées échouent.
Après tout, si même les géants de la technologie ne peuvent pas garantir le contenu de leurs sites web, les utilisateurs de filtres et de contrôles parentaux ne peuvent pas être sûrs qu’ils prennent des mesures efficaces pour bloquer les contenus choquants.