Frances Haugen sur fond bleu

Les 5 dysfonctionnements de Facebook que Frances Haugen a pointés et qui pourraient être corrigés

Pendant son audience de plus de 3 heures devant les sénateurs américains mardi 5 octobre, la lanceuse d'alerte Frances Haugen a livré des analyses éclairantes sur les (dys)fonctionnements de Facebook : une entreprise trop opaque, principalement guidée par les indicateurs de performance, et par un PDG omnipotent.

Mark Zuckerberg a une (très) grosse part de responsabilité 

Les sénateurs ont particulièrement insisté sur la responsabilité de Mark Zuckerberg. ​​En fin d’audience, le sénateur Blumenthal est allé jusqu’à conclure : « Facebook est une boîte noire, et Mark Zuckerberg est le designer en chef de son algorithme. »

Frances Haugen a répondu clairement au sujet des dérives de la gouvernance de l'entreprise. Selon elle, le PDG a bien plus de contrôle sur son entreprise que ne l’ont d’autres dirigeants de la tech. Il contrôle 58 % des parts avec droits de vote de la société selon un document réglementaire datant d’avril. Cela signifie que son contrôle sur les décisions est quasiment total – sans process de régulation.

Facebook est une entreprise principalement guidée par les chiffres

Facebook est résolument une entreprise « metrics centric », à comprendre : centrée sur le suivi d'indicateurs chiffrés. C’est l’une des dérives que la lanceuse d’alerte a pointées du doigt à plusieurs reprises. Une idée qu’elle avait déjà esquissée lors de son interview avec CBS, mais qu’elle a davantage développée.

L’un des indicateurs particulièrement suivis par Mark Zuckerberg est le nombre de « meaningful social interactions ». Il s'agit ici de mesurer les échanges entre proches. Cet indicateur est si central dans le développement de la firme qu'il est même lié aux bonus des salariés, a avancé Frances Haugen. Selon elle, Facebook aurait pu limiter les discours de haine et autres fake news dans des pays à risque, mais a refusé de le faire pour ne pas atteindre les « meaningful social interactions. »

Autre problème de cette obsession des chiffres : le recours massif à l’intelligence artificielle. Pour gérer la détection des contenus violents, les solutions proposées ont été calibrées avec cet objectif de faire au moins cher. « Facebook se concentre principalement sur les effets d'échelle : il s'agit toujours de faire les choses en grand et à un moindre prix, et cela repose en grande partie sur l’IA. Le problème c'est que l'IA ne trouve que 10-20 % des contenus violents, et c'est sans doute le même taux concernant les contenus problématiques pour les enfants ».  

Ces objectifs de performance poussent également Facebook à consacrer 87 % des dépenses liées à la lutte contre la désinformation aux utilisateurs anglophones – parce qu’ils sont les plus rentables, alors qu’ils ne représentent que 9 % des utilisateurs. 

Facebook s'enferme « derrière un mur »

Les sénateurs ont essayé de savoir ce que ferait Frances Haugen à leur place ou celle de Mark Zuckerberg si elle voulait résoudre un certain nombre de dérives de la firme.  L’une de ses réponses est d’obliger Facebook à plus de transparence, en partageant publiquement les résultats de ses recherches internes régulièrement afin que d’autres chercheurs indépendants puissent mener d’autres études à partir de ces résultats. La lanceuse d'alerte a cité des entreprises technologiques – comme Google – qui mettent en place cette pratique.

Facebook ne changera pas seul

La lanceuse d’alerte a cassé l’idée reçue – souvent rabâchée par les Big tech – qu’il est trop compliqué de changer radicalement l’algorithme d'un réseau social tout en continuant de faire une plateforme respectueuse de la liberté d’expression. « Ces problèmes peuvent être résolus (…), un modèle plus sûr est possible » , a-t-elle déclaré. Frances Haugen estime que certains changements pourraient déjà rendre Facebook moins viral (et par conséquent moins toxique). Par exemple : demander aux utilisateurs d’ouvrir un lien avant de le partager comme cela est déjà le cas sur Twitter.

Autre changement suggéré : revenir à l'algorithme initial de la plateforme. Au départ en effet, les post apparaissaient sur nos fils d'actualité de manière chronologique. Depuis 2018, l'algorithme fonctionne sur l’engagement based ranking, c'est-à-dire qu'il pousse les contenus suscitant le plus de réactions – les plus émotionnels. La chose est connue et documentée : cet engagement based ranking a favorisé les contenus les plus violents. 

Mais Frances Haugen insiste sur un point : un réseau social sain qui gère tant d'interactions humaines ne peut tout simplement pas être « computer driven » (guidé par la machine).

premium2
commentaires

Participer à la conversation

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.