La lanceuse d'alerte publie sa biographie The Power of One le 13 juin, près de deux ans après ses révélations sur Meta. Des solutions simples et efficaces existent pour protéger ses plus jeunes utilisateurs, mais ne sont toujours pas appliquées, explique-t-elle.
« Si chacun avait fait son travail pour protéger Lindsay, elle serait vivante. » Ce sont les mots de la mère de Lindsay, collégienne de 13 ans qui s'est suicidée fin mai après des mois de harcèlement. Selon les parents, les responsables sont l'académie de Lille, le collège, les policiers, mais aussi le réseau social Facebook jugé « complètement défaillant » par l'avocat de la famille. Quatre plaintes ont été déposées contre chacun de ces acteurs. Lindsay n'est malheureusement pas une exception. Le drame se répète ailleurs. Aux États-Unis, une série de procès contre Meta (propriétaire de Facebook et Instagram) et Douyin (TikTok) sont menés par des familles d’adolescents et un réseau d’écoles. Le motif est souvent le même : leur impact négatif sur la santé mentale des plus jeunes, pouvant conduire dans certains cas au suicide.
En octobre 2021, la lanceuse d'alerte Frances Haugen révèle que Facebook (désormais Meta) est parfaitement consciente de ce que ces plateformes font aux plus jeunes. L'ancienne salariée de la firme dévoile une série d'enquêtes interne baptisées les « Facebook Files » . L'une d'entre elles porte justement sur les répercussions néfastes du réseau social Instagram sur les adolescents. Selon l'enquête, 32 % des jeunes filles déclarent qu’Instagram les fait se sentir encore plus mal dans leur peau. L'entreprise le sait, et ne fait rien. Frances Haugen accuse également son ex-employeur de trahir la démocratie, et de faire le choix constant du profit plutôt que de la sécurité de ses utilisateurs.
Près de deux ans après son alerte, Frances Haugen, dont la biographie paraît le 13 juin, fait le point pour L’ADN. La réglementation et la prise de conscience évoluent, mais elle estime toujours que la plateforme ne fait rien de significatif pour régler le problème.
Parlez-nous de votre livre, The Power Of One. Qu’avez-vous à ajouter depuis vos interventions dans les médias il y a maintenant près de deux ans ?
Frances Haugen : De plus en plus de pans de l’économie sont dirigés par ce que j’appelle des systèmes opaques. Contrairement à une voiture ou à tout autre produit physique, on ne peut pas inspecter Facebook, on ne peut pas connaître ses défauts de fabrication ni confirmer ce que la plateforme prétend. Toutes les décisions sont prises derrière des rideaux, cachées des utilisateurs. Dans mon livre, j’insiste sur cette différence fondamentale. Si nous laissons les plateformes faire, elles continueront d’effectuer des choix guidés uniquement par leur performance économique.
Vous faisiez vous-même partie d’une équipe dédiée à la lutte contre la désinformation et à la compréhension des biais créés par les algorithmes afin de les corriger. Y a-t-il chez Meta des personnes dédiées à la protection des mineurs ?
F. H. : Tout ce que nous savons, c’est que Facebook dit se préoccuper énormément de la protection des enfants en ligne. Mais nous n’en savons pas beaucoup plus. Et c’est justement le problème.
Peu de temps après vos révélations, la plateforme a annoncé une nouvelle fonctionnalité permettant aux enfants de paramétrer une alerte lorsqu’ils passent trop de temps sur l’application. Que pensez-vous de cette solution ?
F. H. : C’est un exemple très frappant de la manière dont Facebook semble mettre en place des actions, qui en réalité ne donne pas beaucoup de résultats. Cette fonctionnalité est liée à la bonne volonté de l’utilisateur. Si vous ne l’aimez pas, vous pouvez vous y soustraire. J’ai une alerte qui m’incite à éteindre YouTube et à aller me coucher. Et j’ai tendance à la rejeter.
Beaucoup de problèmes de santé viennent du manque de sommeil. Les adolescents manquant de sommeil ont davantage recours aux drogues, à la nicotine, développent plus de troubles anxieux, dépressifs... C’est aussi un facteur de risque important augmentant la probabilité de mourir d’un accident. On pourrait penser que cela intéresse de près Facebook et tout autre réseau social. Or, ils ne publient aucune donnée sur les effets des fonctionnalités qu’ils mettent en place sur le sommeil des enfants. Ils pourraient sonder des utilisateurs, leur poser des questions comme : « Est-ce qu’Instagram est à la source de votre manque de sommeil ? » Il y aurait aussi d’autres fonctionnalités assez simples à mettre en place. Nous savons depuis vingt ans que si un produit est légèrement plus lent, quelques millisecondes suffisent, les usagers ont tendance à moins l’utiliser. Meta pourrait demander à un adolescent le matin à quelle heure il souhaite se coucher le soir même, et faire en sorte que son fil Instagram aux alentours du coucher devienne plus lent pour l’inciter à aller au lit. Cette fonctionnalité existe sur Instagram : les comptes soupçonnés d’être des bots sont ralentis de cette façon. En deux semaines, Instagram pourrait mettre en place une fonctionnalité qui sauverait probablement la vie d’adolescents, et éviterait des syndromes dépressifs. Et ce n’est pas fait. En 1960, les fabricants de voitures ont connu un problème similaire. Les industriels ne voulaient pas être les premiers à aborder le sujet de la sécurité, sous prétexte que les clients ne les comprendraient pas.
Est-ce que les choses ont changé depuis les Facebook Files ?
F. H. : Pendant un moment, oui. De nouvelles fonctionnalités ont été mises en place, du contrôle parental, notamment. Instagram ne vérifiait pas l’âge de ses utilisateurs avant août 2021. C’est-à-dire peu de temps après que Facebook a dû commenter cette étude interne montrant l’impact d’Instagram sur les plus jeunes. Ce qui m’inquiète, c’est que la sécurité des utilisateurs représente un coût important à court terme, et qu’il y a encore des coupes budgétaires chez Meta. De nouvelles vagues de licenciements sont en cours et une partie concerne les équipes de modération et de sûreté. Je crains que la santé mentale des adolescents ne soit toujours pas leur priorité, tout simplement parce que ce n’est pas profitable.
Une réglementation plus stricte envers les plateformes peut les amener à changer… Vous avez fait récemment la promotion d’une loi baptisée Age-Appropriate Design Code Act. De quoi s’agit-il ?
F. H. : Au Royaume-Uni, les sociétés doivent désormais prendre en considération les enfants lorsqu’elles conçoivent un produit. C’est déjà le cas pour les produits physiques aux États-Unis. Appliquer cette règle aux services numériques signifie définir des fonctionnalités les plus sûres par défaut, et ensuite permettre aux utilisateurs de les paramétrer. Par exemple, on pourrait imaginer que les enfants ne puissent pas, par défaut, communiquer avec des adultes via une messagerie. L’idée, c’est de penser d’abord au bien-être des utilisateurs plutôt qu’à la croissance de l’application dès la conception. Cette loi a été adoptée au Royaume-Uni, puis en Californie, et il y a des chances qu’elle soit adoptée ailleurs.
Vous vantez aussi les mérites du Digital Services Act (DSA), une réglementation européenne récente…
F. H. : Beaucoup de psychologues et pédiatres ont soulevé le fait que Meta posait un problème chez les plus jeunes, mais l’entreprise a tout de même réussi à éluder cette question. Pour moi, le DSA va dans le bon sens, car il reconnaît l’existence de ces systèmes opaques, comme je l’évoquais plus haut, et essaie de faire en sorte que cela change. Le DSA oblige ces sociétés à partager tout ce qu’elles cachent depuis des années, notamment les risques liés à leurs produits. Si un gouvernement leur pose des questions, elles devront répondre. L’absence de réponse à des questions pourtant élémentaires est l’une des choses qui me choquent le plus avec ces plateformes. À maintes reprises, des gouvernements disent avoir demandé combien de modérateurs parlent français, allemand, ou espagnol chez Meta. Et ils n’ont jamais eu de réponse. Par ailleurs, avec le DSA, des citoyens pourront questionner une plateforme sur un risque qu’ils auront eux-mêmes identifié.
En France, nous commençons à réglementer l’exposition des enfants sur le Web par leurs parents. Et aux États-Unis, des voix s’élèvent aussi pour réclamer plus d’encadrement. Quel est votre regard sur ce phénomène ?
F. H. : Je pense que c’est un exemple qui nous montre que nous entrons dans une époque avec des normes très différentes. Des lois émergent, car des enfants sont exploités. Je soutiens fermement l'idée de donner aux enfants des droits sur leur propre image, de leur donner le droit d’être traités comme ils le méritent, et d’avoir des droits de travailleurs.
Quels changements devraient opérer les plateformes ?
F. H. : À mon sens, nous n’avons pas besoin de changements radicaux. Nous devons simplement repenser notre relation collective à ces technologies. C’est une relation dans laquelle on demanderait à Facebook ou TikTok de nous montrer du respect, de nous montrer que la plateforme essaie activement de nous protéger. Aujourd’hui, nous n’attendons rien de ces sociétés, parce que nous nous sentons reconnaissants d’utiliser ces produits gratuitement. La vérité, c’est qu’ils ne sont pas gratuits. Ma mission est d’expliquer qu’il peut y avoir un futur plus souhaitable, où la répartition du pouvoir entre les utilisateurs et les plateformes est différente. C’est ce que nous allons commencer à voir dans les cinq années à venir, et je pousse pour que ça soit le cas.
Concrètement, quelles formes pourrait prendre cette nouvelle relation ?
F. H. : Il pourrait s’agir de nouveaux droits pour les utilisateurs. Pour le moment, nous n’avons par exemple pas le droit de réinitialiser nos algorithmes de recommandation. Ces systèmes donnent l’impression d’avoir appris à connaître nos désirs, mais ceux-ci peuvent être différents de ce que nous voulons réellement. Lorsque j’avais une vingtaine d’années, j’ai dû réapprendre à marcher, car j’étais paralysée. À ce moment de ma vie, j’ai regardé des films et séries plutôt déprimants sur Netflix. Et puis je m’en suis lassée, car ce type de contenus me déprimait encore plus. J’ai déménagé avec de nouvelles personnes, qui avaient leur propre compte Netflix, et j’ai été très surprise. Je me suis rendu compte que Netflix était aussi amusant, et qu’il y avait du super contenu. L’algorithme « pensait » que j’étais une personne que je n’étais plus, et il continuait de m'abreuver de contenus qui ne me correspondaient plus. Imaginez qu’il soit possible de dire à l’algorithme : on recommence à zéro, je ne suis plus la même personne.
Aujourd’hui, la manière de répondre à ces problèmes passe souvent par le contrôle. C’est notamment ce que l’on voit en Chine, avec des mécanismes de censure. À quoi ressemblerait un design qui nous pousserait à plus d’autonomie et de liberté ? Les plateformes nous considèrent comme des produits, le but étant de nous maintenir le plus longtemps possible en ligne. Il faudrait que ces plateformes nous perçoivent comme des personnes dignes qui méritent le respect. Par exemple, lorsqu’Instagram identifie que certains contenus dépriment les adolescents, et accentuent leurs complexes physiques, la plateforme pourrait les alerter : « Tu regardes de plus en plus de contenus qui peuvent te déprimer, est-ce que tu veux continuer de le faire ? Est-ce que tu veux en regarder moins ? » C’est techniquement possible, puisque la plateforme sait trier les images sur Instagram par catégories : chat, petit-déjeuner, vêtements, etc.
L’été dernier vous avez lancé une ONG baptisée « Beyond The Screen », sur quoi travaille-t-elle ?
F. H. : Nous essayons notamment de définir un devoir de diligence, une sorte de norme de conduite pour les réseaux sociaux, afin qu’ils protègent au mieux les utilisateurs. Nous réunissons des techniciens, législateurs et organisations pour mettre en commun leurs connaissances. Car, en ce qui concerne la réglementation des médias sociaux, tout le monde n'a pas la même compréhension de ce qui est techniquement possible. Par conséquent, il est difficile de trouver un consensus sur ce que devrait être la loi. Notre idée est donc de répertorier les différentes violences qui existent en ligne et les multiples solutions qui existent.
À LIRE
Frances Haugen, The Power of One, Little, Brown and Company, 2023 (en anglais)
Cet entretien est extrait du numéro 33 de la revue L'ADN, Enfants à vendre, Enquête : Qu'a fait Internet de nos enfants ?, à paraître le 19 juin 2023 et en pré-vente en cliquant ici.
Participer à la conversation