Homme bombant le torse et montrant ses muscles

L’algorithme de TikTok amplifie de manière alarmante les contenus misogynes

C'est la conclusion d'une étude qui vient de paraître.

Une étude de l’University College London (UCL) et The Association of School and College Leaders (ASCL), réalisée auprès de plus de 1 000 adolescents âgés de 13 à 17 ans, tire la sonnette d'alarme : l’algorithme de TikTok amplifie rapidement et de manière alarmante les contenus misogynes. Conséquences : les attitudes sexistes influencent les comportements et se normalisent chez les jeunes. Des résultats qui font écho au dernier rapport du Haut Conseil pour l'Egalité qui révélait que 7 % des hommes considèrent que le féminisme menace leur place.

La prolifération des contenus misogynes

Dans le cadre de cette étude, les chercheurs ont interrogé des jeunes s’intéressant à des contenus jugés « sexistes » afin de créer des archétypes d’adolescents susceptibles d’être vulnérables à la « radicalisation ». Les chercheurs ont ensuite analysé pendant 7 jours, plus de 1 000 vidéos suggérées dans la section « Pour toi » de TikTok. « Le contenu initial suggéré était conforme aux intérêts déclarés de chaque archétype, par exemple avec des vidéos explorant les thèmes de la solitude ou de l’amélioration de soi, mais il était ensuite de plus en plus axé sur la colère et le blâme à l’égard des femmes. Au bout de cinq jours, l’algorithme de TikTok présentait quatre fois plus de vidéos au contenu misogyne, telles que l’objectivation, le harcèlement sexuel ou le dénigrement des femmes (passant de 13 % des vidéos recommandées à 56 %) », explique l’étude. L'étude met ainsi en lumière une réalité inquiétante : en favorisant la diffusion de contenus similaires à ceux déjà consultés, l'algorithme de TikTok enferme les adolescents dans des bulles de misogynie.

Des algorithmes qui visent les plus fragiles

Plus inquiétant, l’étude révèle que l'algorithme de TikTok serait conçu pour cibler les « vulnérabilités » des jeunes (comme la solitude ou le sentiment de perte de contrôle) et gamifier les contenus nuisibles. Selon les chercheurs, les garçons souffrant d’anxiété et de mauvaise santé mentale courent un risque accru. Le Dr Kaitlyn Regehr, chercheuse principale de l'étude constate : « Quand les jeunes microdosent sur des sujets comme l'automutilation ou l'extrémisme, cela ressemble à un divertissement. » Des formats ludiques et un effet boule de neige qui inquiètent Geoff Barton, secrétaire général de l'ASCL (The Association of School and College Leaders) : « C’est profondément inquiétant en général, mais particulièrement en ce qui concerne l’amplification des messages autour de la masculinité toxique et son impact sur les jeunes qui ont besoin de pouvoir grandir et développer leur compréhension du monde sans être influencés par des contenus aussi épouvantables. »

Les propos misogynes sont désormais « normalisés » chez les jeunes

Enfin, les chercheurs ont interrogé des jeunes et des chefs d’établissement sur l’impact de ces contenus toxiques hors ligne. Constat : les idéologies haineuses et les propos misogynes ne se limitent plus aux écrans des adolescents, mais s'infiltrent dans les cours de récréation des écoles. « Les opinions néfastes sont désormais normalisées chez les jeunes », indique le Dr Regehr. Pour Andy Burrows, conseiller de la Fondation Molly Rose, cette étude « éclaire sur la façon dont les algorithmes de TikTok ciblent et bombardent impitoyablement les jeunes avec des contenus préjudiciables. Elle nous montre, comment en quelques jours, l'algorithme peut servir aux adolescents un flot quasi constant de vidéos malsaines et parfois dangereuses. » Pour rappel, dans les semaines qui ont précédé sa mort, Molly Rose, jeune adolescente âgée de 14 ans a été exposée à pas moins de 2 000 pages web et 138 vidéos parlant de suicide ou de mutilations. Les réseaux sociaux (Instagram et Pinterest) ont été reconnus responsables de son suicide. Une première au Royaume-Uni.

Si l’étude portait sur TikTok, les conclusions sont susceptibles – selon les chercheurs – de s'appliquer à d'autres plateformes de médias sociaux. Pour résoudre le problème, plutôt que de prôner une interdiction des téléphones ou des réseaux sociaux « susceptible d’être inefficace », les chercheurs en appellent à une approche de « régime numérique sain ». Objectif : responsabiliser les plateformes sociales, éduquer les jeunes, ou encore informer les parents sur le fonctionnement des algorithmes des réseaux sociaux.

Pour sa défense, le porte-parole de TikTok a indiqué : « La misogynie est interdite depuis longtemps sur TikTok et nous détectons de manière proactive 93 % des contenus que nous supprimons pour avoir enfreint nos règles en matière de haine. » Le problème selon lui ? La méthodologie de l'étude ne « refléterait pas la réalité ».

Peggy Baron

Chaque jour je m'installe à la terrasse de l'actu et je regarde le monde en effervescence. J'écris aussi bien sur les cafards cyborg que sur le monde du travail, sans oublier l'environnement et les tendances conso.

Discutez en temps réel, anonymement et en privé, avec une autre personne inspirée par cet article.

Viens on en parle !
Podacast : En immersion
commentaires

Participer à la conversation

Laisser un commentaire