March 29, 2023

ET Affaire de la Cour suprême Fixé pour plaidoiries le 21 février pourrait transformer le web comme nous le savons.

L’affaire a été déposée par la famille d’une femme tuée lors d’un attentat terroriste de l’État islamique en 2015 à Paris. Les plaignants ont allégué que YouTube – qui appartient à Google – l’avait sciemment autorisé des centaines de vidéos radicalisantes pour publication, affirmant en outre que YouTube recommandait des vidéos ISIS aux utilisateurs. Google a fait valoir qu’il est exempté dans ce cas de l’article 230 – la puissante législation de 1996 qui protège les sociétés Web et de médias sociaux de toute responsabilité légale pour le contenu publié par les utilisateurs.

La position de Google a été soutenue par un tribunal de district fédéral et 9e Cour d’appel du circuit des États-Unis. La Cour suprême qui a saisi l’affaire signale l’intérêt des juges à examiner cette loi historique, qui reste un élément législatif essentiel pour protéger les petites et moyennes entreprises sans poches profondes ni armée d’avocats pour repousser d’innombrables poursuites. Il donne aux entreprises une grande latitude pour modérer leurs sites à leur propre discrétion sans responsabilité, et surtout, il permet aux startups de rivaliser avec des entreprises établies sur le marché libre.

La section 230 a attiré le feu des deux côtés de l’allée. Président Biden a réitéré son appel à une réforme du droit plus tôt cette année. Politiciens démocrates, dont Bidenils veulent généralement réformer ou abroger l’article 230 pour forcer les entreprises de médias sociaux à modérer davantage. politiciens républicains dont l’ancien Président Trump et Rêve. Mitch McConnell ils ont appelé à l’abrogation pour forcer les entreprises de médias sociaux à moins modérer. Les affaires sont également entendues par la Cour suprême contester les lois au Texas et en Floride qui limitent la capacité des plateformes à supprimer du contenu ou les empêchent d’interdire les politiciens.

Lorsque l’article 230 a été promulgué, le Web était un endroit très différent. Les réseaux sociaux étaient dans le ventre. Les plateformes de l’époque ne surveillaient, suivaient, ciblaient et manipulaient pas largement l’activité en ligne de leurs utilisateurs. Aujourd’hui, ce modèle économique est la poule aux œufs d’or des géants des médias sociaux grand public. C’est là que réside le problème : des géants comme Facebook, Instagram, Twitter, TikTok et YouTube ont abusé des privilèges de l’article 230. Ils se cachent derrière le bouclier de responsabilité de cette législation et ciblent leurs utilisateurs avec du contenu qu’ils n’ont pas demandé ou recherché.

Plutôt que de se débarrasser de l’article 230, nous devrions le réformer pour permettre la liberté d’expression et soutenir les nouveaux arrivants mal financés tout en tenant toutes les entreprises responsables. Ses boucliers de responsabilité devraient protéger le contenu que l’entreprise Web n’a aucun rôle dans la promotion ou l’amplification et la modération des décisions qui se conforment spécifiquement aux conditions d’utilisation de l’entreprise.

Cependant, la protection contre la responsabilité doit être supprimée dans quatre cas : le contenu qui est amené par les algorithmes de l’entreprise à “tendre” devant des utilisateurs qui ne le verraient pas autrement ; contenu qui a été boosté grâce au système de ciblage des publicités payantes du site ; supprimé le contenu qui n’enfreint aucune des règles de publication étroitement définies (par exemple, les règles interdisant le harcèlement ciblé, l’intimidation, l’incitation à la violence, le spam ou le doxxing) en vigueur le jour de la publication ; et le contenu qui a été recommandé ou inséré dans le flux d’un utilisateur, de manière algorithmique ou manuelle, par un site Web auquel l’utilisateur n’a pas expressément opté.

Les sites peuvent alors choisir : Veulent-ils se livrer au ciblage et à la manipulation des fils d’actualité de leurs utilisateurs et donc en assumer la responsabilité ? Ou veulent-ils simplement fournir une plate-forme où les utilisateurs suivent le contenu d’amis, de groupes et d’influenceurs avec lesquels ils souhaitent se connecter et voir ? Les recommandations algorithmiques devraient être beaucoup plus transparentes dans ce scénario. Les sites devraient clairement identifier le contenu qui a été amélioré grâce à leurs algorithmes et obtenir l’autorisation expresse des utilisateurs pour leur fournir ce contenu, ce qui leur donnerait plus de contrôle et de transparence.

De plus, conformément à La justification de la Floride pour sa loi qui peut aller jusqu’à la Cour suprêmeL’article 230 devrait être modifié pour exiger des pages “être transparent sur leurs pratiques de modération de contenu et de notification aux utilisateurs des modifications apportées à cette politique. » La liberté d’expression doit être protégée des caprices politiquement motivés de la direction ou du personnel du site.

Il est également important de déterminer ce dont les entreprises de contenu amélioré ne sont pas responsables. Par exemple, que se passe-t-il si une entreprise de médias sociaux recommande une publication sur le surf de grosses vagues et qu’un enfant voit la publication, va surfer et se noie ? Sa famille peut-elle poursuivre le réseau social ? La solution ici consiste à préciser dans la législation mise à jour 230 que les entreprises sont responsables des types spécifiques de contenu qu’elles promeuvent, tels que la diffamation et l’incitation à la violence, et non pour tout contenu qui précède un résultat désastreux.

Toute modification plus large de l’article 230 entraînera une perte totale de confidentialité pour les utilisateurs en ligne. Si les sociétés Web sont responsables de tout le contenu de leurs plates-formes, elles devront vérifier tout ce que les utilisateurs publient – Big Brother sous stéroïdes. Les startups auraient du mal à payer les frais de surveillance ou les frais juridiques.

Si l’article 230 était abrogé, les sociétés Web censureraient tout contenu à distance controversé pour éviter toute responsabilité, ou reculeraient et éviteraient complètement la modération. Les premiers seraient des cauchemars orwelliens dépourvus de liberté d’expression, tandis que les seconds signifieraient des cloaques de contenu dégoûtant. C’est un scénario perdant-perdant.

La Cour suprême devrait confirmer l’article 230 pour continuer à protéger la liberté d’expression et à promouvoir la concurrence. Ensuite, c’est au Congrès de faire des réformes prudentes. Tenir les entreprises responsables du contenu clairement défini qu’elles sont activement impliquées dans le ciblage, la promotion ou la censure. Dans le même temps, établissez des règles qui assureront la protection de la vie privée des utilisateurs et empêcheront les poursuites frivoles. C’est la meilleure voie à suivre – le compromis.

Marc Weinstein il est le fondateur du réseau social MeWe et écrit un livre sur la guérison des réseaux sociaux, la santé mentale, la vie privée, le discours civil et la démocratie.


Leave a Reply

Your email address will not be published. Required fields are marked *