Un homme noir derrière un ordi

Des salariés kényans sous-payés permettent à ChatGPT d’exister et ça n’a rien d’étonnant

© Trust "Tru" Katsande

Pour rendre les réponses du chatbot moins toxiques, des travailleurs kényans payés moins de 2 dollars par heure labellisent des propos violents et autres atrocités, révèle le Time. Un problème systémique à l’industrie de l’intelligence artificielle. 

« C’était de la torture ». Ce sont les mots d’un salarié kényan, confronté à la description extrêmement visuelle d’un homme ayant des rapports sexuels avec un animal sous le regard d’un jeune enfant. Il est chargé d’identifier des textes violents à longueur de journée. Son rôle, et celui d’une trentaine d’autres modérateurs payés entre 1,3 et 2 dollars de l’heure, est de faire en sorte que ChatGPT ne dérape pas. 

Depuis fin novembre, des milliers d’internautes s’émerveillent des prouesses de ce chatbot d’intelligence artificielle qui génère du texte à la demande. Dissertation, poème, explication scientifique, pastiche d’auteurs, idées de startup, lignes de code… L’IA développée par l'entreprise californienne OpenAI semble être bonne à tout faire. Malgré ses erreurs et ses limites, ChatGPT a suscité un mouvement de panique chez Google qui y voit un potentiel concurrent. Sauf que derrière la magie apparente de la technologie, se cache une face bien plus prosaïque et sombre, révélée par une enquête du Time

Filtrer les propos pédophiles, sexistes, haineux...

Le magazine s’est procuré des documents internes de l’entreprise Sama basée à San Francisco. Celle-ci emploie plus de 50 000 salariés au Kenya, en Ouganda et en Inde. La société spécialiste en « éthique de l’intelligence artificielle » a été mandatée par OpenAI pour faire de l’étiquetage de données de novembre 2021 à février 2022. 

ChatGPT est un modèle informatique qui s’appuie sur une énorme quantité de données – des textes issus de milliards de pages Web. Cette masse de données lui permet d’avoir une grande versatilité. Mais c’est aussi un danger potentiel. Puisque parmi les textes issus des quatre coins du Web, on trouve forcément des propos racistes, haineux, pédophiles, sexistes… Afin de faire le tri, OpenAI a donc créé un système de sécurité : un algorithme capable de détecter des contenus toxiques. Et pour construire ce filtre automatique, l’entreprise a eu recours à de petites mains sous-payées. 

9 heures de lectures abjectes 

Leur mission, selon le Time, consiste à lire et étiqueter pendant 9 heures d’affilée entre 150 et 250 textes à caractère pédophile, raciste, incestueux, décrivant des viols, des meurtres, de la torture… Tous les salariés interrogés par le magazine disent avoir été traumatisés par ce travail malgré l’aide de conseillers « bien-être » qui leur a été proposée. Leur salaire serait environ équivalent à celui d’un réceptionniste de Nairobi, pointe le Time.

On peut s’interroger sur la faible valeur donnée à ce travail pourtant essentiel pour OpenAI. Alors que l'entreprise devrait être prochainement valorisée à 29 milliards de dollars grâce à un investissement de Microsoft. On peut également souligner le paradoxe de ces internautes qui se félicitent d'avoir trouvé avec ChatGPT un nouvel assistant ou employé « gratuit » , ignorant que derrière son apparente automatisation, se dissimule un travail humain et pénible.

En réponse au Time, Sama avance que les salariés peuvent gagner jusqu'à 3,7 dollars de l’heure, et n’ont à relire que 70 textes par jour. L’entreprise a par ailleurs cessé sa relation avec OpenAI. Et elle souhaite rompre tous ses contrats incluant de la modération de contenus sensibles. 

Tâcherons du clic 

OpenAI est loin d’être la seule entreprise à faire appel à des travailleurs sous-payés, souvent basés dans des pays en développement pour modérer des contenus abjects ou affiner des bases de données. Une précédente enquête du Time montre d’ailleurs que Sama travaille également avec Facebook. 

Cette sous-traitance à bas prix a été soulevée dès 2019 par le sociologue Antonio Casilli. Son enquête En attendant les robots montre comment les grandes plateformes invisibilisent des microtravailleurs. Ils sont chargés de produire de la donnée, de l’étiqueter, de l’annoter pour faire fonctionner les intelligences artificielles. Le problème est régulièrement évoqué dans la presse, mais la pénibilité psychologique de ce travail peine à être reconnue. 

Le sujet est plus que jamais d’actualité avec l’arrivée de nouveaux outils d’intelligence artificielle particulièrement médiatisés comme ChatGPT, ou les IA génératrices d’images telles que Dall-E et Midjourney.

commentaires

Participer à la conversation

Laisser un commentaire