30-03-meta

« C'est un changement de paradigme » : pourquoi la condamnation de Meta et YouTube est historique

C'est la première fois que des géants du Web sont reconnus coupables de négligence, non pas vis-à-vis du contenu ou de leur modération mais sur la conception de leurs produits. Pour Marie Potel, fondatrice de FairPatterns, cette décision peut tout changer.

375 millions de dollars à Santa Fe et 6 millions de dollars à Los Angeles. En l'espace de 48 heures, Meta (et YouTube pour Los Angeles) a été reconnu coupable devant deux cours de justice pour mise en danger des enfants et négligence de conception. Amplement commentés sur les réseaux, ces verdicts ne marquent pas l'Histoire à cause du montant relatif des amendes – Meta a gagné plus de 200 milliards de dollars en 2025 – mais parce qu'ils ouvrent un précédent et de vraies perspectives de changements.

Zuckerberg sur le grill

Un peu de contexte pour commencer. À Santa Fe, Meta a été condamné par un jury pour avoir laissé des prédateurs sexuels accéder à des mineurs sur ses plateformes, malgré la connaissance qu'ils avaient du problème. C'est la première fois qu'un État américain gagne un procès en jury contre un géant de la tech pour mise en danger d'enfants. Mais c'est surtout le second verdict, celui de Los Angeles, qui est historique. Le procès intitulé KGM v. Meta & YouTube opposait les deux plateformes à Kaley G.M., âgée actuellement de 20 ans et dont les problèmes familiaux l'ont poussée très jeune sur YouTube, dès l'âge de 6 ans et Instagram à 9 ans. Suivie pour dépression et pensées suicidaires, la jeune fille a passé plus de 16 heures par jour en ligne et a raconté son besoin d'être connectée en permanence.

Le procès a été marqué par l’audition sous serment de Mark Zuckerberg, pendant plus de six heures mais aussi par la divulgation de documents internes montrant que l'entreprise a fait des choix délibérés de design pour rendre le produit particulièrement addictif au point de causer un préjudice réel notamment vis-à-vis des jeunes utilisateurs. Marie Potel, fondatrice de FairPatterns, une entreprise spécialisée dans la détection de dark patterns, c'est ce qui fait la spécificité de ce verdict qui va permettre d'avancer sur les 2 400 affaires similaires consolidées devant la justice fédérale, auxquelles s'ajoutent les poursuites de 42 États américains.

En quoi le verdict rendu à Los Angeles peut-être qualifié « d'historique » ?

Marie Potel : C'est une décision qui nous fait changer de paradigme à l'intérieur de l'économie de l'attention. Jusqu'à présent, toutes les plateformes se sont défendues sur le fait qu'elles ne produisaient pas les contenus publiés et que si les enfants étaient exposés à des choses dangereuses comme de la haine, de l'incitation au suicide, ou du contenu incel, ce n'était pas de leur ressort. Leur argument a toujours mis en avant l'idée qu'ils ne font que fournir une architecture, une espèce de véhicule qui serait neutre. Mais ce procès a posé une question radicalement différente. Le juge a spécifiquement demandé aux jurés de ne pas regarder le contenu mais de se concentrer sur le design. L'idée était donc de savoir si cette architecture est bien un produit dangereux pour les enfants, « by design ». Et la réponse a été magistrale : « Oui, bien sûr ». C'est complètement historique.

Une partie de ce verdict repose sur la divulgation de documents internes très éloquents. Que disaient ces documents ?

M.P. : Le système judiciaire américain a l'avantage de disposer d'une procédure de discovery qui permet d'imposer à l'autre partie de fournir des documents internes, sans forcément savoir ce qu'ils contiennent. C'est dans ce cadre que la cour est tombée sur des informations perturbantes. Je vous donne juste un exemple. Il y a un memo stratégique interne au sein de Meta qui dit cette phrase, en anglais : « Si on veut vraiment gagner gros avec les ados, il faut les faire rentrer en tant que tweens », un terme qui désigne les enfants de 8 à 11 ans. Un autre exemple, c'est un autre memo interne qui dit que les enfants de 11 ans sont quatre fois plus susceptibles de revenir sur Instagram par rapport à d'autres applis concurrentes et ils avaient alors TikTok dans le viseur. Ils sont conscients qu'il faut pousser les contenus qui plaisent aux 11 ans alors même que la plateforme était censée n'être accessible qu'à partir de 13 ans.

Sachant que l'addiction aux réseaux n'est pas une notion qui fait consensus chez les scientifiques, qu'est-ce qui finalement a été retenu pour qualifier les problèmes de comportement vis-à-vis des plateformes ?

M.P. : Vous avez raison de rappeler que l'Organisation mondiale de la santé n’a pas reconnu, au sens médical du terme, une addiction aux réseaux sociaux ou aux jeux vidéo. À ce jour, cette qualification n’existe pas. En revanche, il est largement admis et cela fait consensus parmi les experts qu’il existe un trouble ( « disorder » ). Le verdict rendu a d’ailleurs établi un lien direct de cause à effet entre l’usage de ces plateformes et les troubles dont souffrait cette jeune fille, notamment des pensées suicidaires et une dysmorphie corporelle, c’est-à-dire un rejet profond de son apparence. Ainsi, même en l’absence de reconnaissance formelle d’une addiction au sens médical, les dommages causés à la santé mentale par ces dispositifs demeurent avérés. Ils reposent notamment sur des techniques d’exploitation des vulnérabilités cognitives humaines.

Est-ce que cette décision va avoir des répercussions sur les autres actions en justice, présentes ou futures à l'encontre des plateformes Web ?

M.P. : Je pense vraiment qu'il va y avoir un avant et un après. Il ne vous aura pas échappé que la Commission européenne vient de lancer une procédure au titre du DSA contre Snapchat, toujours sur les mineurs. Ils auraient pu l'annoncer quand ils voulaient, donc ce n'est pas un hasard de calendrier. Ce qui entre particulièrement en jeu, c'est la question de la prédation de l'attention des utilisateurs à un âge où leur cerveau n'est pas suffisamment mature pour le gérer. Je rappelle que la littérature scientifique stipule que le cortex préfrontal n'est mature qu'à l'âge de 25 ans. Or il agit un peu comme la tour de contrôle des impulsions. En tant qu'adulte, on est capable de contrôler les stimulus que l'on reçoit. Mais tant qu'on n'a pas 25 ans, on n'a pas cette capacité de tour de contrôle. C'est pour ça que le design addictif est d'autant plus grave et dangereux sur les mineurs. On a des études un peu dans tous les sens qui montrent que les risques sur la santé mentale des enfants et les ados sur les réseaux sociaux sont deux fois plus élevés que chez des adultes quand ils sont sur les réseaux sur une durée quotidienne d'à peu près 3 heures par jour.

Le verdict a été souvent présenté comme le moment "Big Tobacco", en faisant référence à l'industrie du tabac qui a perdu de nombreux procès. Mais cette industrie continue de vendre des cigarettes. Est-ce que ces procès vont changer les choses ou est-ce qu'on va juste avoir le droit à des mentions du type « Attention, scroller peut te faire déprimer » ?

M.P. : Effectivement, on a juste mis des images horribles sur les paquets de cigarettes et on a continué à faire des milliards avec ça. Il ne faut pas être naïf. Aujourd'hui Zuckerberg est à la Maison Blanche en train d'essayer de convaincre Trump de l'aider. Le procès en appel sera sans doute jugé par un juge ami. Maintenant, je pense quand même que vu les dommages gravissimes qui sont désormais avérés, il faut profiter du momentum pour intégrer l'État de droit à l'intérieur même des plateformes. Ça signifie qu'il faut mettre en place des normes et des règles à respecter sur la sécurité des produits.

Cela peut se faire de deux façons qui seront complémentaires. Il y a une première façon qui est déjà en train d'arriver au travers des actions de groupe. Il y a aujourd'hui plus de 1 600 procédures aux États-Unis contre Meta, YouTube et les autres plateformes. Ces procédures sont menées par des associations, des écoles ou des individus. On a un système judiciaire aux États-Unis mais aussi au Brésil, aux Pays-Bas, au Royaume-Uni, ou au Portugal qui sont très propices aux actions de groupe. Ces actions prennent un peu le relais de régulateurs qui sont soit politiquement empêchés, soit techniquement pas très au point, soit juste un peu lents ou en retard.

L'autre facteur qui fait qu'on ne sera pas dans une situation similaire à celle du tabac, c'est l'arrivée de l'IA qui nous permet de scanner ces applications et d'identifier tout le design addictif. Les entreprises qui sont nos clients utilisent actuellement ces outils pour faire la chasse à ces dark patterns qui vont devenir intolérables aux yeux de la loi.

Quelles sont justement les plus grosses fonctionnalités addictives qu'il faut faire disparaître ?

M.P. : Sans surprise tout ce qui est scroll infini, autoplay des vidéos, et le pire c'est évidemment la recommandation algorithmique. Idéalement il faudrait revenir à la promesse originelle du réseau social, celle de connecter les humains et non de moissonner notre temps d'attention.

Est-ce que vous pensez qu'en dehors des réseaux sociaux il y a d'autres secteurs qui pourraient être touchés comme les plateformes de streaming, les jeux vidéo, les applications de rencontres ?

M.P. : Pour les jeux vidéo c'est une évidence et c'est déjà en train d'arriver. Les acteurs majeurs du jeu vidéo vont subir des milliers d'actions de groupe en Europe et aux États-Unis parce qu'ils utilisent des techniques qui sont directement issues des casinos. C'est la même chose avec des plateformes comme Shein ou Temu qui ont énormément gamifié leur design. Encore une fois, c'est l'exploitation de la faiblesse cognitive des humains.

Les plateformes ont intégré des outils comme les comptes pour mineurs ou les rappels de pause. Ont-ils un réel impact, ou relèvent-ils surtout de l’affichage ?

M.P. : Il existe une étude très intéressante du régulateur néerlandais publiée en juin dernier. Elle repose sur une expérimentation menée auprès de plusieurs centaines d’adolescents : les chercheurs ont utilisé de vrais réseaux sociaux, en y ajoutant un plug-in permettant de tester différentes modifications de design et d’en mesurer les effets. Sur trois expérimentations, deux ont permis de diviser par trois le temps d’écran quotidien des adolescents. Donc oui, lorsque ces dispositifs sont conçus sérieusement et avec une réelle intention, ils peuvent fonctionner. Mais, comme souvent en matière de régulation, il faut distinguer les mesures de façade et les actions réellement efficaces. Et cette différence est aujourd’hui objectivable.

Par ailleurs, il faut noter que plusieurs grandes universités européennes travaillent actuellement sur ces sujets, notamment via des programmes de recherche financés au niveau européen (comme l’EIC). Ces projets, très ambitieux, visent à développer des outils d’évaluation du caractère addictif des interfaces, ainsi que des expérimentations à grande échelle sur différents publics. Plus largement, il est important de rappeler que la recherche scientifique sur le design addictif – comme sur l’IA générative – est déjà extrêmement riche et robuste. Elle a produit des résultats de grande qualité ces dernières années, même si l’enjeu reste encore de mieux les traduire dans des applications concrètes.

David-Julien Rahmil

David-Julien Rahmil

Squatteur de la rubrique Médias Mutants et Monde Créatif, j'explore les tréfonds du web et vous explique comment Internet nous rend toujours plus zinzin. Promis, demain, j'arrête Twitter.

Discutez en temps réel, anonymement et en privé, avec une autre personne inspirée par cet article.

Viens on en parle !
commentaires

Participer à la conversation

Laisser un commentaire