Un livreur Uber en vélo vue de haut

« Score de misérabilité » et arnaque algorithmique : une fausse révélation sur Uber Eats trompe des millions d’internautes

© Pim de Boer

En l’espace d’une semaine, un post dénonçant une stratégie Uber Eats pour exploiter ses livreurs a enflammé Reddit et TikTok. Récit d’une fake news qui en dit long sur notre rapport aux plateformes.

Dans un contexte politique et économique tendu, le post de l’utilisateur ThrowawayWhistleblower (littéralement « lanceur d’alerte jetable » ) avait toutes les qualités pour devenir viral. Publié au début du mois de janvier sur le subreddit r/confession, le texte provenait d’un soi-disant développeur travaillant pour une « application de livraison de nourriture incontournable » (tout le monde a immédiatement pensé à Uber Eats) et racontait la stratégie interne de l’entreprise pour maximiser les profits sur le dos des travailleurs pauvres.

Anatomie d'une infox

Concrètement, l’auteur expliquait que l’algorithme de la plateforme mettait en œuvre un « score de misérabilité » appliqué à ses livreurs les plus précaires. Si ces derniers acceptaient rapidement les courses les moins rémunérées, alors Uber Eats leur proposait toujours plus de courses peu rentables, pariant sur la motivation désespérée du travailleur.

L’autre partie du post était consacrée à l’option payante d’Uber Eats, censée garantir aux utilisateurs une livraison plus rapide et qualifiée d’arnaque. D’après l’auteur, cette option ne change rien à la durée réelle de la course et serait simplement un moyen pour la plateforme de gagner davantage d’argent. Trente-cinq millions de vues et des dizaines de vidéos de réaction indignées plus tard, il s’avère que le post était complètement bidon.

Dans une enquête fouillée, le journaliste Casey Newton explique que le post a fonctionné en s’appuyant sur la crainte collective que nous entretenons vis-à-vis des plateformes numériques. L’idée selon laquelle nous serions manipulés pour être mieux exploités, tandis que les géants du Web flirtent constamment avec la légalité, est largement partagée, d’autant que les exemples concrets et réels ne manquent pas.

Ainsi, Uber a bien mis en place un outil intitulé Greyball, qui exploitait les données collectées par l’application Uber et d’autres techniques pour identifier et contourner les autorités qui tentaient de réprimer le service de VTC. De son côté, la plateforme DoorDash a été épinglée par la justice en février 2025 pour avoir privé ses chauffeurs de pourboires grâce à des pratiques de paiement trompeuses.

Les preuves étaient trop parfaites

Au-delà du simple canular, l’article de Newton est en réalité une leçon de vérification des faits et des documents à l’ère de l’IA. Le journaliste a demandé à l’auteur du post des documents permettant d’étayer la véracité de son histoire. Ce dernier lui a envoyé une photo de badge d’entrée siglé Uber ainsi qu’un rapport interne intitulé « AllocNet-T : Modélisation temporelle multidimensionnelle de l’état de l’offre », dont la documentation très technique donnait, à première vue, une impression de crédibilité. Casey Newton avoue d’ailleurs s’être laissé berner pendant la lecture du document.

Celui-ci faisait état d’une surveillance de données biométriques ou audio des livreurs, via leur Apple Watch par exemple. En parallèle, l’auteur du post mettait la pression sur le journaliste en lui indiquant qu’il avait transmis le même document à d’autres journalistes et qu’il devait se dépêcher de le publier pour obtenir le scoop.

Face au doute grandissant, le journaliste vérifie par le biais de Gemini la présence de filigranes SynthID, présents sur les images générées par l’IA de Google. Le résultat est sans appel : la photo du badge envoyée par l’internaute s’avère fausse. Confronté à cette vérification, le lanceur d’alerte supprime son compte Telegram.

Sur les réseaux, le doute monte également, notamment à cause de l’orthographe dégradée des réponses du posteur, qui tranche avec son texte d’origine. Partagé avec des personnes travaillant dans l’industrie des plateformes numériques, le document sera plus tard considéré comme bidon. Quelques jours après sa publication, le post Reddit est supprimé, sans pour autant empêcher les vidéos TikTok de continuer à circuler.

Quelles sont les motivations ?

Reste la question du pourquoi. Pourquoi ce « lanceur d’alerte » a-t-il lancé cette infox sur les réseaux ? Sur ce point, plusieurs hypothèses sont envisageables. La première est celle d’un internaute cherchant à tout prix à faire le buzz ou à expérimenter un narratif mensonger à l’aide de l’IA. Il est aussi possible d’imaginer un acte militant visant à critiquer les entreprises visées, voire l’industrie des plateformes numériques dans son ensemble. Enfin, ce canular peut également être perçu comme une forme de test de sécurité informationnelle, voire une tentative de manipulation massive de l’opinion. L’objectif pourrait être d’évaluer jusqu’où peut aller une fausse révélation générée par intelligence artificielle et de mesurer la réactivité des réseaux sociaux comme des journalistes chargés de vérifier l’information.

David-Julien Rahmil

David-Julien Rahmil

Squatteur de la rubrique Médias Mutants et Monde Créatif, j'explore les tréfonds du web et vous explique comment Internet nous rend toujours plus zinzin. Promis, demain, j'arrête Twitter.

Discutez en temps réel, anonymement et en privé, avec une autre personne inspirée par cet article.

Viens on en parle !
la journée des tendances 2026
commentaires

Participer à la conversation

Laisser un commentaire