
Dans les litiges juridiques, comme dans la vie, parfois ce qui n’est pas dit en dit plus que ce qui est. Considérez un mémoire déposé auprès de la Cour suprême pour défendre une loi qui accorde à Google et à d’autres entreprises technologiques une immunité limitée contre les poursuites.
Gonzalez contre. Google, proposé pour une plaidoirie devant la Cour suprême mardi, fait référence à l’article 230 de la Communications Decency Act, une loi adoptée en 1996 pour réglementer le tout nouvel Internet. Les groupes de défense des enfants, qui ont déposé une notification d’ami du tribunal dans cette affaire, notent que les plateformes de médias sociaux nuisent sciemment aux enfants en diffusant des contenus dangereux dans addictif chemin. Fait révélateur, aucun des nombreux rapports déposés par les entreprises technologiques ne traite de ces préjudices.
L’un des principaux objectifs du Congrès en promulguant l’article 230 était de fournir, comme l’ont déclaré certains sénateurs, “une protection indispensable pour les enfants,” non seulement d’un contenu explicite, mais aussi d’une mauvaise utilisation. Ironiquement, les plateformes soutiennent maintenant que le Congrès avait en fait l’intention de leur offrir l’immunité contre les décisions commerciales dont elles savent qu’elles nuiront aux enfants.
Le L’affaire Gonzalez apporté par la famille d’un Américain assassiné par l’Etat islamique lors des attentats terroristes de Paris en 2015. La famille affirme qu’en conséquence prévisible des efforts de Google pour garder autant d’yeux que possible sur YouTube, des vidéos de recrutement terroriste sont diffusées à des personnes susceptibles d’être intéressées dans le terrorisme. Dans une affaire similaire qui sera débattue mercredi, Twitter contre Oh mon Dieule tribunal examinera si le prétendu manquement des plateformes à prendre des “mesures significatives” pour supprimer le contenu terroriste viole la loi fédérale antiterroriste.
Les implications de l’essor des médias sociaux vont bien au-delà d’un meilleur accès aux contenus terroristes. Dans les années qui ont suivi l’explosion d’Instagram, passant d’un million à un milliard d’utilisateurs, les États-Unis ont connu une croissance fulgurante 146% d’augmentation dans les suicides par arme à feu chez les enfants de 10 à 14 ans. Nombre total de suicides chez les jeunes une hausse sans précédent de 57 %. Bien que la corrélation entre la croissance des plateformes et la crise de la maladie mentale chez les jeunes ne prouve pas la causalité, Facebook recherche interne divulguée a noté que 6% des adolescents américains utilisateurs d’Instagram “poursuivaient leur désir de se suicider” sur la plateforme.
Les chercheurs et les cliniciens ont également documenté à plusieurs reprises la santé mentale et les dommages physiques généralisés liés aux médias sociaux chez les enfants. Lundi dernier, les Centers for Disease Control and Prevention des États-Unis ont annoncé que des adolescentes souffraient niveaux record de deuil et de risque suicidaire, que certains experts attribuent en partie au boom des réseaux sociaux. Et mardi, un comité du Sénat américain a entendu des histoires déchirantes sur les dangers, comme l’a décrit un parent en deuil, “du pouvoir incontrôlé de l’industrie des médias sociaux”.
Les plateformes de médias sociaux gagnent de l’argent en vendant de la publicité. Plus de temps passé sur une plate-forme signifie plus de regards sur ses publicités, ce qui signifie qu’elle peut facturer plus pour ces publicités. De plus, plus un utilisateur passe de temps sur la plate-forme, plus la plate-forme développe de données sur l’utilisateur, qu’elle peut ensuite utiliser pour garder l’utilisateur sur la plate-forme plus longtemps.
Les gens ne trient pas personnellement qui voit ce qu’il y a sur ces plateformes. Au contraire, les humains ordonnent aux technologies d’IA de maximiser ce que les plates-formes appellent “l’engagement des utilisateurs”. L’IA le fait à une vitesse fantastique en testant quelles recommandations fonctionnent le mieux avec des milliards d’utilisateurs. Ensuite, elle propose un contenu basé non seulement sur ce que l’enfant dit vouloir, mais sur ce qui est statistiquement le plus susceptible de garder les enfants comme elle collés à l’écran. Trop souvent la réponse est celle qui exploite ses peurs et ses angoisses.
Cela signifie qu’avec la fréquence perturbatrice, les adolescents déprimés reçoivent des conseils sur le suicidefilles anxieuses de regarder le corps contenu faisant la promotion des troubles alimentaires et les jeunes intéressés par la drogue ont la possibilité d’acheter pilules contenant du fentanyl mortel. De plus, les plates-formes utilisent des gadgets neuroscientifiquement adaptés tels que le défilement automatique, les rappels constants pour revenir à la plate-forme et les «j’aime» libérant de la dopamine qui peuvent créer une dépendance pour les enfants. Les enfants qui veulent vraiment désactiver la plate-forme ne peuvent souvent pas ; leur cerveau n’est tout simplement pas assez vieux pour résister aux dépendances dans la même mesure que les adultes.
Afin de maintenir la croissance chaque trimestre, les plateformes doivent trouver des moyens d’attirer et de fidéliser plus d’utilisateurs plus longtemps. Si les plateformes sont autorisées à continuer de profiter de la technologie dont elles savent qu’elle nuira à un grand nombre d’enfants sans crainte de conséquences financières, elles continueront d’améliorer leurs techniques et davantage d’enfants seront lésés. La crise du suicide des enfants et de la santé mentale que nous vivons actuellement ne fera qu’empirer et il n’y a pas de fin en vue.
Il ne doit pas en être ainsi. La méthode de Google de hiérarchisation du contenu pour les téléspectateurs, conçue pour être basée sur l’expertise, l’autorité et la fiabilité d’un site Web, montre qu’il existe des moyens de décider qui voit quoi qui sont beaucoup moins risqués pour les enfants – et pour tous les autres.
La décision du tribunal ne met pas fin au débat sur l’article 230, mais elle pourrait commencer à ramener la loi à son objectif initial de protection de la jeunesse. Cependant, il ne devrait pas y avoir de débat sur le fait qu’il devrait être illégal de militariser sciemment la vulnérabilité des enfants contre eux.
Et si nous ne pouvons pas nous mettre d’accord là-dessus, quiconque pense que le mal sans précédent que subissent les enfants est le prix que la société doit payer pour la liberté sur Internet devrait au moins reconnaître ce mal.
Ed Howard est conseiller juridique principal du Children’s Advocacy Institute de la faculté de droit de l’Université de San Diego.