YouTube et Twitter devraient-ils être plus responsables des contenus dangereux ? La Cour suprême considère les critiques techniques

Topline

La Cour suprême examine à quel point les principales plateformes de médias sociaux – Twitter, Facebook, YouTube, en particulier – sont responsables de leurs publications les plus dangereuses, contestant les larges protections que les entreprises technologiques prétendent nécessaires pour empêcher Internet de se transformer en un désert sombre, mais que les critiques prétendent aller trop loin.

Faits marquants

La court suprême entendra plaidoiries lundi dans l'affaire (Gonzalez c. Google) où des membres de la famille d'une victime des attentats terroristes de Paris en 2015 ont poursuivi Google, alléguant que YouTube (une société de Google) devrait être tenu responsable après que son algorithme ait recommandé des vidéos de recrutement de l'Etat islamique à des partisans potentiels, et entendre les arguments mercredi dans Twitter c. Taamneh, qui vise le même objectif contre les entreprises de médias sociaux sur leur rôle dans une attaque terroriste de 2017 en Turquie.

La première affaire vise à déterminer si YouTube peut être tenu responsable des recommandations qu'il formule en vertu de Section 230 du Communications Decency Act de 1996, qui protège les plates-formes de médias sociaux et les autres sociétés Internet de toute responsabilité légale en déclarant qu'elles ne sont pas légalement responsables du contenu de tiers publié sur leur plate-forme.

Des plates-formes technologiques telles que Google, Meta, Twitter, Microsoft, Yelp, Reddit, Craigslist, Wikipedia et d'autres ont fait valoir dans des documents déposés qu'une décision de justice déclarant que YouTube pouvait être tenu responsable aurait des conséquences désastreuses, entraînant des plates-formes en ligne restreignant largement tout contenu qui pourrait éventuellement être considéré comme légalement répréhensible - ou adopter l'approche opposée et laisser tout en l'air sans filtrer le contenu manifestement problématique.

Des groupes de défense du premier amendement, dont l'ACLU et la Knight Foundation, ont averti que de telles restrictions pourraient refroidir la liberté d'expression, et si les plates-formes technologiques sont obligées de se débarrasser des algorithmes de recommandation, Google a fait valoir qu'Internet pourrait se transformer en un "désordre désorganisé et un champ de mines contentieux".

L'affaire Twitter, qui implique également Facebook et Google, ne concerne pas l'article 230, mais demande plutôt si les entreprises de médias sociaux peuvent être tenues responsables en vertu de la loi antiterroriste, qui autorise des poursuites contre quiconque "aide et encourage" un acte de terrorisme international.

Après qu'un tribunal inférieur a conclu que le simple fait de savoir que des terroristes faisaient partie des utilisateurs de l'entreprise serait un motif suffisant pour intenter une action en justice, Twitter a fait valoir qu'une décision à son encontre entraînerait également une "responsabilité particulièrement large" pour les entreprises de médias sociaux, et Facebook et Google ont suggéré que cela pourrait s'étendre à d'autres organisations qui peuvent avoir à travailler, même indirectement, avec des terroristes, y compris des groupes humanitaires qui travaillent sur le terrain dans des pays comme la Syrie.

Porte-parole en chef

Les plaignants qui ont poursuivi Google ont rejeté les sombres prédictions faites par les entreprises technologiques dans un bref au tribunal, arguant qu'ils sont trop larges et "largement sans rapport avec les questions spécifiques" dans l'affaire. "Les prédictions selon lesquelles une décision particulière de cette Cour aura des conséquences désastreuses sont faciles à faire, mais souvent difficiles à évaluer", ont fait valoir les requérants, notant que si les sociétés de médias sociaux ont encore d'autres garanties juridiques en place pour les protéger, comme le premier amendement, il est « indéniable que le matériel promu sur les sites de médias sociaux a en fait causé un préjudice grave ».

Contra

L'administration Biden a argumenté la Cour suprême devrait restreindre la portée de l'article 230 pour rendre plus possible les poursuites contre les plateformes de médias sociaux, mettant en garde contre une "interprétation trop large" de la loi qui pourrait "miner l'importance d'autres lois fédérales". La Maison Blanche a fait valoir que l'article 230 ne protège pas YouTube contre les poursuites contre les recommandations nuisibles faites par son algorithme, étant donné que ses recommandations sont créées par l'entreprise et non par le contenu de tiers. Les partisans des plaignants ont également suggéré une décision contre Google pourrait aider les plateformes de médias sociaux à nettoyer les algorithmes qui ont abouti à des recommandations préjudiciables aux mineurs, avec l'Electronic Privacy Information Center argumentant les entreprises de médias sociaux profitent de la nature étendue de l'article 230 et "utilisent l'article 230 comme bouclier au lieu de rendre leurs produits plus sûrs".

Citation cruciale

"Refuser la protection de l'article 230 (c) (1) à l'affichage des recommandations de YouTube pourrait avoir des retombées dévastatrices", a fait valoir Google devant le tribunal dans un mémoire, arguant que l'éviscération de l'article 230 " bouleverserait Internet et encouragerait de manière perverse à la fois une suppression à grande échelle discours et la prolifération de discours plus offensants.

Ce qu'il faut surveiller

Les décisions dans les deux affaires interviendront à la fin du mandat de la Cour suprême, fin juin ou début juillet. Il est également possible que le tribunal ne rende pas de décision radicale sur le moment où les entreprises de médias sociaux peuvent être tenues responsables en vertu de l'article 230 : Google a fait valoir que si le tribunal rejetait l'affaire Twitter en disant que la famille de la victime n'avait pas de motifs de poursuivre, cela pourrait également rejeter l'affaire Google pour les mêmes motifs sans entrer du tout dans l'article 230.

Fond clé

L'affaire Google est portée devant la Cour suprême après que les tribunaux de district inférieur et d'appel se soient rangés du côté de la plate-forme de médias sociaux, jugeant qu'elle est protégée par l'article 230 et ne peut être poursuivie. L'affaire a été entendue avec l'affaire Twitter devant la Cour d'appel du neuvième circuit, mais la cour d'appel s'est prononcée contre les plateformes de médias sociaux dans l'affaire Twitter, estimant que Twitter, Facebook et Google pouvaient tous être tenus responsables en vertu des lois antiterroristes même car il a confirmé séparément les protections de l'article 230. Les affaires de médias sociaux sont portées devant la Cour suprême alors que le pouvoir croissant de Big Tech et l'échec des plates-formes à modérer avec succès les contenus préjudiciables ont été critiqués des deux côtés de l'allée politique, et la Cour suprême a repris les affaires après une justice conservatrice. Clarence Thomas a suggéré que le tribunal devrait Pour conférer la question de l'article 230.

Tangente

Les législateurs républicains ont particulièrement visé à l'article 230 et ont cherché à tenir les entreprises de médias sociaux plus légalement responsables, car elles ont accusé les entreprises de médias sociaux de refroidir le discours des conservateurs. Le sénateur Ted Cruz (R-Texas) a conduit 11 législateurs du GOP à déposer une bref plaidant pour que la Cour suprême restreigne la portée de l'article 230, arguant que les entreprises de médias sociaux ont utilisé l'interprétation large de la loi pour "[ne pas hésiter] à restreindre l'accès et à supprimer le contenu en fonction de la politique de l'orateur".

Lectures complémentaires

La Cour suprême examinera si les entreprises technologiques, telles que Google et Twitter, peuvent être tenues responsables des recommandations de contenu (Forbes)

Tout ce que vous devez savoir sur l'article 230 (Le bord)

Ces 26 mots « ont créé Internet ». Maintenant, la Cour suprême peut venir pour eux (CNN)

Source : https://www.forbes.com/sites/alisondurkee/2023/02/20/should-youtube-twitter-be-more-responsible-for-dangerous-content-supreme-court-considers-tech-critics/