Skip to content
Mark Zuckerberg au tribunal : le procès qui pourrait faire tomber les géants des réseaux sociaux commence aujourd’hui
Crédit: Adobe Stock

Une stratégie juridique révolutionnaire

Pendant des années, les géants technologiques se sont cachés derrière un bouclier juridique apparemment inattaquable : la Section 230 du Communications Decency Act. Cette loi les protège de toute responsabilité pour le contenu publié par leurs utilisateurs. Quelqu’un poste quelque chose de nocif sur Facebook? Ce n’est pas la faute de Facebook, c’est la faute de l’utilisateur. Simple. Efficace. Et pendant longtemps, imparable. Mais les avocats de K.G.M. ont trouvé la faille. Leur argument n’est pas que les réseaux sociaux ont hébergé du contenu dangereux. Leur argument est que les plateformes elles-mêmes sont conçues pour être dangereuses. Le scroll infini. L’autoplay. Les notifications incessantes. Les algorithmes de recommandation qui poussent du contenu de plus en plus extrême pour maintenir l’attention. Ce ne sont pas des bugs. Ce sont des fonctionnalités. Des choix de conception délibérés pour maximiser le temps passé sur les applications. Au détriment de tout le reste.

La juge Kuhl a déjà tranché sur ce point crucial. Dans une décision de novembre 2025, elle a écrit qu’il existe des « preuves au dossier que K.G.M. a été blessée par des fonctionnalités de conception ». Cette phrase change tout. Elle ouvre la porte à des poursuites qui ne peuvent plus être balayées par la Section 230. On ne parle plus de ce que les gens publient. On parle de comment les plateformes sont construites. De pourquoi elles sont construites ainsi. Et de qui a pris ces décisions en sachant pertinemment ce qu’elles allaient provoquer. Matthew Bergman, l’avocat principal des plaignants et fondateur du Social Media Victims Law Center, résume : « Nous ne reprochons pas aux réseaux sociaux de ne pas avoir supprimé du contenu malveillant. Nous leur reprochons d’avoir conçu leurs plateformes pour rendre les enfants dépendants et d’avoir développé des algorithmes qui montrent aux enfants non pas ce qu’ils veulent voir, mais ce qu’ils ne peuvent pas s’empêcher de regarder. »

On touche là à quelque chose de fondamental. Ce n’est pas un accident. Ce n’est pas une erreur de parcours. Ce n’est pas un effet secondaire imprévu. C’est le cœur même du modèle économique. Plus les utilisateurs passent de temps sur l’application, plus ils voient de publicités, plus l’entreprise gagne d’argent. Tout le reste — la santé mentale des adolescents, les dépressions, les suicides — n’est qu’un « coût externe ». Une note de bas de page dans un rapport trimestriel. Une variable d’ajustement. Et ça, ça me rend fou.

L’histoire de K.G.M. : un cas d’école

Les détails du dossier de K.G.M. étaient sous scellés. Ils vont être rendus publics pendant le procès. Ce qu’on sait déjà fait froid dans le dos. Elle a commencé à utiliser les réseaux sociaux à 10 ans, malgré les efforts de sa mère pour l’en empêcher. La plainte précise que les « défendeurs conçoivent leurs produits de manière à permettre aux enfants de contourner le consentement parental ». Ce n’est pas un reproche vague. C’est une accusation précise : ces plateformes sont délibérément construites pour échapper au contrôle des parents. Le « design addictif » d’Instagram, TikTok et Snapchat, combiné aux notifications incessantes, l’a poussée à utiliser les plateformes de manière compulsive. Les fonctionnalités qui recommandent d’autres utilisateurs à suivre sur Snapchat et Instagram « ont facilité et créé des connexions entre K.G.M. et de parfaits inconnus, y compris des adultes prédateurs ». Instagram et TikTok l’auraient aussi « ciblée » avec du contenu dépressif et des images favorisant la comparaison sociale négative.

Et puis il y a eu la sextorsion. Sur Instagram. Quelqu’un a menacé de partager des photos explicites d’elle si elle ne payait pas ou n’envoyait pas plus de photos. Il a fallu deux semaines — deux semaines pendant lesquelles ses amis et sa famille ont spammé Instagram de signalements — pour que Meta daigne agir. Deux semaines de terreur pour une adolescente. Deux semaines où une entreprise valant des centaines de milliards de dollars n’a pas trouvé le moyen de protéger une enfant. La plainte conclut : « Les décisions et conduites délibérées des défendeurs en matière de conception, marketing, distribution, programmation et opération de leurs produits ont causé de graves préjudices émotionnels et mentaux à K.G.M. et sa famille. Ces préjudices incluent, mais ne se limitent pas à, une dépendance dangereuse à leurs produits, de l’anxiété, de la dépression, de l’automutilation et de la dysmorphie corporelle. »

Sources

Sources primaires

Los Angeles Superior Court – Décision de la juge Carolyn B. Kuhl sur les motions de rejet – Novembre 2025
BBC News – Tech giants face landmark trial over social media addiction claims – 27 janvier 2026
Reuters – Trial to begin over claims that Meta, TikTok, YouTube fuelling youth mental-health crisis – 26 janvier 2026
CNN – Meta, TikTok and YouTube heading to trial to defend against youth addiction, mental health harm claims – 26 janvier 2026

Sources secondaires

CNBC – Facebook founder Zuckerberg must take witness stand at social media safety trial, judge rules – 21 octobre 2025
Deadline – Zuckerberg & Other Social Media CEOs Set For Witness Stand As Meta, Google, TikTok & Snap Fail To Get Mental Health Suit Dismissed – 7 novembre 2025
AFP – Social media giants face landmark trial over addiction claims – 26 janvier 2026
Fortune – The $200 billion playbook that kneecapped Big Tobacco is coming for Mark Zuckerberg – Octobre 2023
TechRepublic – Why Snap’s Quiet Settlement Could Change the Future of Social Media – 22 janvier 2026
The Globe and Mail – Trial to begin over claims that Meta, TikTok, YouTube fuelling youth mental-health crisis – 26 janvier 2026

Ce contenu a été créé avec l'aide de l'IA.

facebook icon twitter icon linkedin icon
Copié!
Plus de contenu