Une stratégie juridique révolutionnaire
Pendant des années, les géants technologiques se sont cachés derrière un bouclier juridique apparemment inattaquable : la Section 230 du Communications Decency Act. Cette loi les protège de toute responsabilité pour le contenu publié par leurs utilisateurs. Quelqu’un poste quelque chose de nocif sur Facebook? Ce n’est pas la faute de Facebook, c’est la faute de l’utilisateur. Simple. Efficace. Et pendant longtemps, imparable. Mais les avocats de K.G.M. ont trouvé la faille. Leur argument n’est pas que les réseaux sociaux ont hébergé du contenu dangereux. Leur argument est que les plateformes elles-mêmes sont conçues pour être dangereuses. Le scroll infini. L’autoplay. Les notifications incessantes. Les algorithmes de recommandation qui poussent du contenu de plus en plus extrême pour maintenir l’attention. Ce ne sont pas des bugs. Ce sont des fonctionnalités. Des choix de conception délibérés pour maximiser le temps passé sur les applications. Au détriment de tout le reste.
La juge Kuhl a déjà tranché sur ce point crucial. Dans une décision de novembre 2025, elle a écrit qu’il existe des « preuves au dossier que K.G.M. a été blessée par des fonctionnalités de conception ». Cette phrase change tout. Elle ouvre la porte à des poursuites qui ne peuvent plus être balayées par la Section 230. On ne parle plus de ce que les gens publient. On parle de comment les plateformes sont construites. De pourquoi elles sont construites ainsi. Et de qui a pris ces décisions en sachant pertinemment ce qu’elles allaient provoquer. Matthew Bergman, l’avocat principal des plaignants et fondateur du Social Media Victims Law Center, résume : « Nous ne reprochons pas aux réseaux sociaux de ne pas avoir supprimé du contenu malveillant. Nous leur reprochons d’avoir conçu leurs plateformes pour rendre les enfants dépendants et d’avoir développé des algorithmes qui montrent aux enfants non pas ce qu’ils veulent voir, mais ce qu’ils ne peuvent pas s’empêcher de regarder. »
On touche là à quelque chose de fondamental. Ce n’est pas un accident. Ce n’est pas une erreur de parcours. Ce n’est pas un effet secondaire imprévu. C’est le cœur même du modèle économique. Plus les utilisateurs passent de temps sur l’application, plus ils voient de publicités, plus l’entreprise gagne d’argent. Tout le reste — la santé mentale des adolescents, les dépressions, les suicides — n’est qu’un « coût externe ». Une note de bas de page dans un rapport trimestriel. Une variable d’ajustement. Et ça, ça me rend fou.
L’histoire de K.G.M. : un cas d’école
Les détails du dossier de K.G.M. étaient sous scellés. Ils vont être rendus publics pendant le procès. Ce qu’on sait déjà fait froid dans le dos. Elle a commencé à utiliser les réseaux sociaux à 10 ans, malgré les efforts de sa mère pour l’en empêcher. La plainte précise que les « défendeurs conçoivent leurs produits de manière à permettre aux enfants de contourner le consentement parental ». Ce n’est pas un reproche vague. C’est une accusation précise : ces plateformes sont délibérément construites pour échapper au contrôle des parents. Le « design addictif » d’Instagram, TikTok et Snapchat, combiné aux notifications incessantes, l’a poussée à utiliser les plateformes de manière compulsive. Les fonctionnalités qui recommandent d’autres utilisateurs à suivre sur Snapchat et Instagram « ont facilité et créé des connexions entre K.G.M. et de parfaits inconnus, y compris des adultes prédateurs ». Instagram et TikTok l’auraient aussi « ciblée » avec du contenu dépressif et des images favorisant la comparaison sociale négative.
Et puis il y a eu la sextorsion. Sur Instagram. Quelqu’un a menacé de partager des photos explicites d’elle si elle ne payait pas ou n’envoyait pas plus de photos. Il a fallu deux semaines — deux semaines pendant lesquelles ses amis et sa famille ont spammé Instagram de signalements — pour que Meta daigne agir. Deux semaines de terreur pour une adolescente. Deux semaines où une entreprise valant des centaines de milliards de dollars n’a pas trouvé le moyen de protéger une enfant. La plainte conclut : « Les décisions et conduites délibérées des défendeurs en matière de conception, marketing, distribution, programmation et opération de leurs produits ont causé de graves préjudices émotionnels et mentaux à K.G.M. et sa famille. Ces préjudices incluent, mais ne se limitent pas à, une dépendance dangereuse à leurs produits, de l’anxiété, de la dépression, de l’automutilation et de la dysmorphie corporelle. »
Mark Zuckerberg à la barre
Quand le patron doit s’expliquer
Il y a eu des tentatives pour éviter ça. Meta a tout fait pour empêcher Mark Zuckerberg de témoigner. L’entreprise a argué que ses dépositions précédentes et son témoignage devant le Sénat devraient suffire. Que forcer le PDG à comparaître à chaque procès « interférerait avec les opérations de l’entreprise ». La juge Kuhl n’a pas été impressionnée. Dans sa décision d’octobre 2025, elle a écrit : « Le témoignage d’un PDG est particulièrement pertinent, car la connaissance qu’a ce dirigeant des préjudices, et son échec à prendre les mesures disponibles pour éviter ces préjudices, pourrait établir la négligence ou la ratification d’une conduite négligente. » En clair : ce n’est pas un employé lambda qu’on veut entendre. C’est celui qui prend les décisions. Celui qui savait. Celui qui a choisi de ne rien faire.
Adam Mosseri, le patron d’Instagram, devra aussi témoigner. Evan Spiegel de Snap était prévu avant que son entreprise ne règle à l’amiable. Selon Mary Anne Franks, professeure de droit à l’Université George Washington, les dirigeants tech « ne sont souvent pas à l’aise sous pression ». Les entreprises « espéraient vraiment » éviter que leurs patrons soient appelés à la barre. On comprend pourquoi. Devant le Congrès, Zuckerberg peut réciter des réponses préparées. Devant un jury, sous le feu d’un contre-interrogatoire, c’est une autre histoire. Les questions seront précises. Les contradictions seront exposées. Et les documents internes de l’entreprise seront là pour rafraîchir les mémoires. En 2024, Zuckerberg avait déclaré devant le Sénat que « l’ensemble des travaux scientifiques existants n’a pas montré de lien causal entre les réseaux sociaux et une détérioration de la santé mentale des jeunes ». On va voir si cette affirmation tient face aux documents que son entreprise a produits en interne.
Il y a quelque chose de presque poétique dans ce retournement. Pendant des années, ces hommes ont témoigné devant le Congrès comme s’ils faisaient une faveur aux élus. Condescendants, évasifs, protégés par des armées d’avocats et de communicants. Et là, face à un jury de citoyens ordinaires, ils vont devoir répondre vraiment. Pas à des politiciens qui cherchent un clip pour les infos du soir. À des gens qui vont décider si oui ou non, ils ont détruit des vies pour de l’argent. La démocratie, parfois, ça fonctionne.
Les documents qui font trembler
C’est peut-être l’aspect le plus explosif de ce procès. Des trésors de documents internes des entreprises vont être déscellés et rendus publics. Julia Duncan, avocate à l’American Association for Justice impliquée dans l’affaire, a prévenu : certains de ces documents montreront des employés admettant la nature addictive des plateformes. À cause de fonctionnalités comme le scroll infini, l’autoplay vidéo et la façon dont les algorithmes de recommandation sont conçus. On se souvient des « Facebook Papers » révélés par la lanceuse d’alerte Frances Haugen en 2021. Des documents montrant que Meta savait qu’Instagram était « toxique » pour les adolescentes. Que l’entreprise avait les données. Que des employés avaient tiré la sonnette d’alarme. Et que rien n’avait changé. Ce procès pourrait révéler bien pire. Le parallèle avec Big Tobacco prend ici tout son sens. Ce qui a fait tomber les cigarettiers, ce ne sont pas les études scientifiques externes. Ce sont leurs propres documents. Les mémos internes prouvant qu’ils savaient, depuis des décennies, que leurs produits tuaient. Et qu’ils avaient choisi de mentir.
Les plaignants vont aussi présenter des témoignages d’enfants et de parents « qui n’ont jamais été révélés auparavant ». Des histoires comme celle de K.G.M.. Multipliées par des centaines. Des adolescents qui se sont mutilés. Qui ont développé des troubles alimentaires. Qui ont été hospitalisés en psychiatrie. Qui se sont suicidés. Derrière chaque chiffre, un nom. Derrière chaque statistique, une famille brisée. Le jury va entendre ces voix. Et il va devoir décider : est-ce que les entreprises qui ont conçu ces plateformes portent une responsabilité? Est-ce que l’utilisation de ces applications a été un « facteur substantiel » dans ces souffrances, comparé à d’autres causes possibles — le contenu posté par des tiers, ou des aspects de la vie hors ligne?
L'ombre de Big Tobacco
Le playbook de 206 milliards de dollars
Dans les années 1990, l’industrie du tabac semblait invincible. Des décennies de procès s’étaient soldées par des victoires pour les cigarettiers. Leur défense était simple : les fumeurs connaissaient les risques, ils ont choisi de fumer, ils assument. Puis tout a basculé. Des documents internes ont fuité. Ils prouvaient que les entreprises savaient, depuis les années 1950, que la cigarette causait le cancer. Qu’elles avaient manipulé les niveaux de nicotine pour maximiser l’addiction. Qu’elles avaient créé des mascottes comme Joe Camel pour cibler les enfants. Et qu’elles avaient menti au public pendant quatre décennies. En 1998, les quatre plus grands fabricants de cigarettes ont accepté de payer 206 milliards de dollars aux États américains. Le plus grand règlement civil de l’histoire. Ils ont dû transformer leurs pratiques publicitaires. Financer des campagnes anti-tabac. Reconnaître, finalement, ce qu’ils avaient toujours nié.
Les avocats des victimes des réseaux sociaux utilisent exactement la même stratégie. Les mêmes arguments. Et parfois les mêmes personnes. Kenneth Rashbaum, professeur de droit à Fordham et spécialiste de la régulation technologique, résume : « L’argument était que Joe Camel visait à attirer les jeunes et à leur faire commencer le tabac comme une habitude à vie extrêmement nocive pour leur santé. Dans l’affaire contre Meta, substituez les algorithmes à Joe Camel. » Le mécanisme est identique. Accrocher les jeunes. Créer une dépendance. Nier les preuves. Maximiser les profits. Seul le produit change. La cigarette détruisait les poumons. Les réseaux sociaux détruisent les esprits. Mais dans les deux cas, des entreprises ont choisi de vendre un produit qu’elles savaient dangereux à des enfants.
Je me souviens des publicités Marlboro de mon enfance. Le cow-boy viril sur son cheval. La liberté. L’aventure. On sait maintenant que c’était un mensonge calculé, conçu par des experts en psychologie pour nous rendre dépendants. Les algorithmes de TikTok et Instagram, c’est la même chose. En plus sophistiqué. En plus efficace. En plus pernicieux. Parce qu’au moins, avec la cigarette, il fallait aller l’acheter. Les réseaux sociaux, eux, sont dans la poche de chaque enfant. 24 heures sur 24. 7 jours sur 7.
Ce que Big Tobacco nous apprend
Si les plaignants gagnent, à quoi pourrait ressembler l’industrie des réseaux sociaux demain? On peut imaginer : des avertissements obligatoires avant de se connecter, comme sur les paquets de cigarettes. Des entreprises forcées de financer des programmes de prévention et de traitement de l’addiction aux écrans. L’obligation de supprimer ou modifier les fonctionnalités particulièrement nocives ou attrayantes pour les enfants. Et bien sûr, des milliards de dollars de dommages et intérêts. En 2024, l’ancien chirurgien général américain Vivek Murthy a appelé le Congrès à imposer des étiquettes d’avertissement de type tabac sur les plateformes de réseaux sociaux, citant une « crise de santé mentale » chez les jeunes. Des procureurs généraux d’États ont fait la même demande. Une étude du Pew Research Center publiée l’an dernier indiquait que près de la moitié des adolescents américains pensent que les réseaux sociaux ont des effets « majoritairement négatifs » sur les gens de leur âge. Même les utilisateurs savent. Même les enfants savent. Les seuls qui prétendent ne pas savoir sont ceux qui en profitent.
Eric Goldman, professeur de droit à l’Université de Santa Clara, a déclaré à la BBC que perdre ces procès pourrait représenter une « menace existentielle » pour les entreprises de réseaux sociaux. Mais il a aussi noté qu’il pourrait être difficile pour les plaignants de prouver que des préjudices physiques peuvent être imputés à des éditeurs de contenu. C’est là tout l’enjeu juridique. Et c’est pourquoi l’argument du « design » plutôt que du « contenu » est si crucial. Les entreprises ne sont pas poursuivies pour ce que les gens publient. Elles sont poursuivies pour comment elles ont construit leurs machines à capturer l’attention. Pour les décisions qu’elles ont prises en sachant ce qu’elles allaient provoquer. Pour avoir choisi les profits plutôt que la protection.
Un moment charnière
Plus qu’un procès, un tournant de civilisation
Ce qui se joue à Los Angeles dépasse largement le cas de K.G.M. C’est un procès sur la responsabilité des entreprises technologiques. Sur leur pouvoir. Sur leur impunité. Pendant deux décennies, les géants de la Silicon Valley ont opéré dans une zone de non-droit. Protégés par la Section 230. Protégés par leur puissance de lobbying. Protégés par une fascination collective pour l’innovation et la disruption. Ils ont redéfini nos modes de communication, de consommation d’information, de relations sociales. Et ils ont fait ça sans jamais vraiment avoir à rendre de comptes. Les auditions au Congrès? Du théâtre. Des PDG qui font acte de présence, esquivent les questions, promettent de « faire mieux », et repartent sans conséquences. Les amendes européennes? Des lignes dans des rapports trimestriels. Des coûts d’exploitation. Pas de quoi changer un modèle économique.
Mais un jury, c’est différent. Douze citoyens ordinaires qui vont écouter des témoignages. Voir des documents. Entendre des parents raconter ce qui est arrivé à leurs enfants. Et décider. Pas si les entreprises ont violé une obscure régulation européenne. Si elles ont fait du mal. Si elles savaient qu’elles faisaient du mal. Et si elles doivent payer pour ça. Ce n’est pas une question technique. C’est une question morale. Et c’est pourquoi ce procès fait trembler la Silicon Valley comme aucune audition parlementaire ne l’a jamais fait.
Quelque chose me frappe en préparant cet article. Les entreprises tech ont dépensé des fortunes pour convaincre le public qu’elles sont différentes. Qu’elles sont progressistes, bienveillantes, tournées vers l’avenir. Qu’elles « connectent le monde » et « donnent une voix à chacun ». Mais quand on regarde leurs actions — pas leurs slogans, leurs actions — on voit exactement le même cynisme que chez les vieux industriels du XXe siècle. Maximiser les profits. Externaliser les coûts. Nier les preuves. Attaquer les critiques. La seule différence, c’est qu’ils le font avec des t-shirts gris et des campus avec des toboggans.
Ce qui va suivre
Ce procès n’est que le premier. Deux autres affaires « bellwether » impliquant des plaignants identifiés comme R.K.C. et Moore vont suivre. Des procès de districts scolaires sont prévus cet été devant la juge fédérale Yvonne Gonzalez Rogers en Californie du Nord. Elle doit aussi entendre des affaires portées par des dizaines de procureurs généraux d’États contre Meta, alléguant que l’entreprise a violé les lois de protection des consommateurs en les trompant sur les dangers de ses produits. Le verdict dans l’affaire K.G.M. « formera, au moins en théorie, la base d’un règlement couvrant les plaignants restants », selon Courthouse News. En d’autres termes : si K.G.M. gagne, les vannes s’ouvrent. Des milliers de victimes. Des milliards de dollars. Et possiblement une transformation fondamentale de l’industrie.
Les entreprises, elles, ne désarment pas. Elles ont embauché des avocats qui ont défendu McKesson dans les procès sur les opioïdes. Elles ont lancé des campagnes de communication pour montrer qu’elles se soucient de la sécurité des jeunes. Meta sponsorise des ateliers dans les lycées sur la « sécurité en ligne ». TikTok a des programmes avec les associations de parents d’élèves. Google travaille avec les Girl Scouts. Du PR. De la com. Mais dans les tribunaux, c’est une autre histoire. Meta affirme que les poursuites « déforment » l’image de l’entreprise et le travail qu’elle fait « chaque jour pour offrir aux jeunes des expériences en ligne sûres et précieuses ». YouTube argue que sa plateforme est « fondamentalement différente » des réseaux sociaux comme Instagram et TikTok, et ne devrait pas être mise dans le même sac. On verra ce qu’en pense le jury.
Conclusion : L'heure des comptes
Une génération sacrifiée
Derrière les chiffres, derrière les stratégies juridiques, derrière les milliards de dollars, il y a des enfants. Des adolescents qui ont grandi avec ces applications. Qui ont été modelés par elles. Dont le cerveau en développement a été façonné par des algorithmes conçus pour maximiser l’engagement, pas le bien-être. K.G.M. avait 10 ans quand elle a commencé. Elle en a 19 aujourd’hui. Presque une décennie de sa vie. Les années les plus formatrices. Les années où l’on construit son identité, sa confiance en soi, ses relations. Elle les a passées à scroller. À comparer. À recevoir des notifications. À être ciblée par des contenus conçus pour la faire se sentir mal. Et elle n’est pas un cas isolé. Elle est la règle. Toute une génération a servi de cobaye pour une expérience sociale à grande échelle dont personne n’avait demandé l’autorisation.
Les géants tech vont dire que c’est la faute des parents. Qu’ils auraient dû surveiller leurs enfants. Qu’ils auraient dû fixer des limites. Mais la mère de K.G.M. a essayé. Elle a installé des logiciels de blocage. Ça n’a pas marché. Parce que les plateformes sont conçues pour contourner ces barrières. Les entreprises vont dire que les problèmes de santé mentale ont de multiples causes. C’est vrai. Mais ça ne les exonère pas. Si quelqu’un vous pousse dans un précipice et que vous aviez déjà le vertige, le responsable de votre chute, c’est celui qui a poussé. Les entreprises vont dire qu’il n’y a pas de preuve scientifique définitive du lien entre réseaux sociaux et santé mentale. Leurs propres documents internes racontent une autre histoire. Et c’est exactement ce que disait Big Tobacco. Pendant quarante ans. Jusqu’à ce que la vérité éclate.
Quelque part dans les bureaux de Meta, de ByteDance, de Google, des gens se préparent pour ce procès. Des avocats. Des communicants. Des stratèges. Ils vont défendre l’indéfendable avec le même cynisme froid qu’ils mettent dans la conception de leurs algorithmes. Et face à eux, il y aura K.G.M. Une jeune femme de 19 ans qui va devoir raconter publiquement les pires moments de sa vie. La dépression. L’anxiété. La sextorsion. Les pensées suicidaires. Elle va le faire pour elle. Mais aussi pour tous les autres. Pour les milliers d’enfants qui ont souffert en silence. Pour ceux qui ne sont plus là pour témoigner. L’histoire ne lui en devra pas moins que ce qu’on doit aux lanceurs d’alerte et aux premiers plaignants contre Big Tobacco. Elle est en train de changer le monde. Je souhaite qu’elle gagne. Je souhaite que ce procès soit le début de la fin de l’impunité. Et je souhaite que dans dix ans, quand on regardera en arrière, on se demandera comment on a pu laisser faire si longtemps.
Le verdict de l’histoire
La sélection du jury commence ce mardi 27 janvier 2026. Elle devrait durer plusieurs jours, avec 75 jurés potentiels interrogés chaque jour. Le procès proprement dit devrait commencer début février et durer plusieurs semaines. Mark Zuckerberg témoignera tôt dans les débats. Des documents internes seront dévoilés. Des témoignages seront entendus. Et un jury de citoyens ordinaires décidera si les entreprises les plus puissantes du monde ont détruit la vie d’une génération pour de l’argent. Quelle que soit l’issue, ce procès marque un tournant. Pour la première fois, les géants des réseaux sociaux doivent affronter les conséquences de leurs choix. Pas devant des politiciens. Devant la justice. Devant le peuple. Et ça, personne ne peut l’acheter ou l’algorithmiser.
Encadré de transparence du chroniqueur
Positionnement éditorial
Je ne suis pas journaliste, mais chroniqueur et analyste. Mon expertise réside dans l’observation et l’analyse des dynamiques technologiques, économiques et sociétales qui façonnent notre monde. Mon travail consiste à décortiquer les stratégies des géants de la tech, à comprendre les implications de leurs décisions sur nos vies, et à proposer des perspectives analytiques sur les transformations qui redéfinissent nos sociétés.
Je ne prétends pas à l’objectivité froide du journalisme traditionnel, qui se limite au rapport factuel. Je prétends à la lucidité analytique, à l’interprétation rigoureuse, à la compréhension approfondie des enjeux complexes qui nous concernent tous. Mon rôle est de donner du sens aux faits, de les situer dans leur contexte historique et stratégique, et d’offrir une lecture critique des événements.
Méthodologie et sources
Ce texte respecte la distinction fondamentale entre faits vérifiés et analyses interprétatives. Les informations factuelles présentées proviennent exclusivement de sources primaires et secondaires vérifiables.
Sources primaires : communiqués officiels des tribunaux, décisions de la juge Carolyn B. Kuhl, documents judiciaires du Los Angeles Superior Court, déclarations des avocats des parties.
Sources secondaires : BBC News, Reuters, CNN, CNBC, AFP, The Globe and Mail, Deadline, Fortune, TechRepublic.
Nature de l’analyse
Les analyses, interprétations et perspectives présentées dans les sections analytiques de cet article constituent une synthèse critique et contextuelle basée sur les informations disponibles, les précédents historiques (notamment les procès contre Big Tobacco) et les commentaires d’experts cités dans les sources consultées.
Toute évolution ultérieure de la situation pourrait naturellement modifier les perspectives présentées ici. Cet article sera mis à jour si de nouvelles informations officielles majeures sont publiées.
Sources
Sources primaires
Los Angeles Superior Court – Décision de la juge Carolyn B. Kuhl sur les motions de rejet – Novembre 2025
BBC News – Tech giants face landmark trial over social media addiction claims – 27 janvier 2026
Reuters – Trial to begin over claims that Meta, TikTok, YouTube fuelling youth mental-health crisis – 26 janvier 2026
CNN – Meta, TikTok and YouTube heading to trial to defend against youth addiction, mental health harm claims – 26 janvier 2026
Sources secondaires
CNBC – Facebook founder Zuckerberg must take witness stand at social media safety trial, judge rules – 21 octobre 2025
Deadline – Zuckerberg & Other Social Media CEOs Set For Witness Stand As Meta, Google, TikTok & Snap Fail To Get Mental Health Suit Dismissed – 7 novembre 2025
AFP – Social media giants face landmark trial over addiction claims – 26 janvier 2026
Fortune – The $200 billion playbook that kneecapped Big Tobacco is coming for Mark Zuckerberg – Octobre 2023
TechRepublic – Why Snap’s Quiet Settlement Could Change the Future of Social Media – 22 janvier 2026
The Globe and Mail – Trial to begin over claims that Meta, TikTok, YouTube fuelling youth mental-health crisis – 26 janvier 2026
Ce contenu a été créé avec l'aide de l'IA.