Homme en train de fixer une étoile en carton

La nouvelle guerre des étoiles : entre faux avis et coups de pression, les dérives des systèmes de notation

© Warchi via Getty Images

Il se passe rarement un jour sans que l’on note un produit, un service, voire une personne. Le journaliste Vincent Coquaz, co-auteur de La nouvelle guerre des étoiles, explique comment cette pratique - et les dérives qui vont avec - se sont imposées petit à petit.

Des 5 étoiles Amazon au chauffeur Uber en passant par notre médecin de famille sur Google, noter est devenu un geste presque mécanique, que l'on exécute sans y prêter trop attention. Pendant deux ans, Vincent Coquaz et Ismaël Halissat, journalistes à Libération, ont enquêté sur les origines et les conséquences de cette pratique. Leur livre La nouvelle guerre des étoiles a été publié fin août chez Kero. Interview.

La notation s’est infiltrée dans tous les recoins de notre vie quotidienne alors qu'elle est régulièrement critiquée, à l’école notamment. Comment expliquer ce paradoxe ?

Vincent Coquaz : L’une des explications est que la notation est apparue par petites touches. L’un des premiers systèmes d’avis en ligne est apparu avec Amazon dans les années 1990. Cela leur permettait de confier aux clients une partie de leur travail : trier les produits vendus sur la plateforme. Pour Amazon, cela signifie des coûts en moins, donc de la marge supplémentaire. D’autres entreprises se sont inspirées de ce modèle. Puis, sans s’en rendre compte, on a commencé à utiliser les avis pour noter les gens. Quand on se fait livrer un produit par le service Darty par exemple, on ne sait pas exactement si c’est le livreur qu’on note ou la livraison. Pour les managers, cela permet de dire : ce n’est pas moi qui te demande de faire mieux, ce sont les clients eux-mêmes.

On débat assez peu du sujet car on connaît mal les barèmes de notation et leur fonction. Les notes sont souvent présentées comme une manière d’améliorer le service, mais dans les faits elles ont le même objectif que les premiers systèmes de notation institués par les jésuites : classer et trier.

Nous sommes, de plus, parfois notés à notre insu…

V.C. : Effectivement, il y a un tout un pan de la notation qui ne se voit pas. Quand on utilise certains sites, tout un tas d’algorithmes qu’on ne connaît pas nous notent. Il y a par exemple le Sift Score calculé par l’entreprise Sift Science et utilisé par Airbnb et Coach Surfing. C’est un score de risque nourri avec des données sur l’utilisateur : où il s’est connecté, avec quel téléphone, quel billet d’avion a-t-il acheté, à quelle heure pour aller où… L’idée est de détecter les pirates informatiques.

Quelles sont les conséquences de cette notation constante ?

V.C. : C’est une mise sous pression permanente. Dans notre livre nous prenons l’exemple des restaurateurs confrontés à la notation TripAdvisor. On cite le cas d’un bistrot de quartier qui s'est retrouvé propulsé à la première place des restaurants parisiens. Il a alors été pris d’assaut par des touristes venus de partout dans le monde. Cela a créé une distorsion. Le gérant dit que les clients venaient avant pour manger et viennent désormais pour juger. Il le déplore, et s’inquiète de la manière dont cela change sa manière de travailler.

Une autre dérive de la notation est la création d’une sorte d’industrie des faux avis que vous décrivez dans votre livre. À quel point ces méthodes sont-elles démocratisées ?

V.C. : C’est assez difficile à quantifier car cela se passe majoritairement via des groupes Facebook privés où des utilisateurs obtiennent gratuitement des produits vendus par des fabricants chinois en échange d’un avis positif sur Amazon. Des sites comme Fakespot et ReviewMeta, qui identifient les faux avis Amazon, estiment que sur des produits de très grande consommation comme des écouteurs et des protections d’écrans, le taux de faux avis serait de 60 à 70%.

Nous avons infiltré certains des groupes Facebook privés pour faire le test. On a obtenu gratuitement, en échange de faux avis, une batterie de téléphone portable, et aussi, et c’est sans doute plus grave, une crème contre l’acné. Nous avons fait analyser cette crème par une dermatologue qui nous a dit qu’elle ne servait à rien et qu’en plus elle était potentiellement nocive car elle contenait des produits irritants. Pourtant, sur Amazon elle cumule de nombreux avis très positifs.

Qui sont les personnes qui trafiquent les avis ?

V.C. : Nous nous sommes surtout intéressés aux personnes qui jouent le rôle d’intermédiaire entre les commerçants chinois et les acheteurs, des sortes de grossistes en faux avis. Leur rôle consiste à poster des annonces sur les groupes Facebook pour trouver des personnes prêtes à publier de faux commentaires. Il s’agissait souvent de femmes au foyer ou de personnes en recherche d’emploi qui gagnaient ainsi un revenu complémentaire de quelques dizaines, voire quelques centaines d’euros par mois.

Quelles sont les autres techniques de manipulation de la notation ?

V.C. : Il y a une plateforme appelée The Insiders sur laquelle de grandes marques s’adressent aux consommateurs en leur proposant d’acheter un produit à tarif préférentiel en échange de commentaires sur différents sites web. Il n’est pas dit explicitement qu’il faut laisser un avis positif, mais si on veut continuer à recevoir des produits à prix bas, c’est mieux vu de laisser des commentaires très positifs. Dyson a ainsi inondé le site Les Numériques de centaines d’avis positifs.

Par ailleurs, il y a des situations plus anecdotiques d’entrepreneurs qui essaient d’influencer leur note Google. Un plombier basé à Lille faisait par exemple 10% de remise à tous les clients qui lui mettaient 5 étoiles sur Google. C’était le seul plombier de la région à avoir une centaine d’avis tous extrêmement positifs, type “c’était le meilleur changement de chasse d’eau de ma vie”.

Amazon vient de supprimer 20 000 faux avis 5 étoiles sur son site britannique. Mais ce type d’opération reste rare. Comment expliquer le relatif laisser-faire des plateformes ?

V.C. : On leur a posé la question, elles nous répondent qu’elles font tout ce qu’elles peuvent. Pourtant à deux, avec des moyens bien moins importants que ceux d’Amazon, on a détecté un certain nombre de faux avis passés entre les mailles du filet. On a l’impression que leurs équipes ne font pas le maximum. ReviewMeta et Fakespot nous ont expliqué qu’une entreprise fait attention aux faux avis seulement si son cœur de métier en dépend. Typiquement TripAdvisor, dont le modèle repose sur la recommandation (mais cela est en train de changer), est plus vigilant sur la modération des avis qu’Amazon ou Google, dont les cœurs de métier sont respectivement la vente et la publicité. La qualité des avis est secondaire pour eux. Les notes sur Google c’est ce qu’il y a de pire, il y a très peu de modération. On ne sait pas si une personne qui note un médecin est vraiment allée dans son cabinet.

Ce qui est étonnant c’est que même si l’on sait que les notes ne sont pas pertinentes, on continue de s’y fier…

V.C. : Avec Ismaël (Halissat), cela fait deux ans qu’on enquête sur le sujet donc on sait bien que les avis Google ne sont pas fiables et pourtant on ne peut pas s’empêcher de penser qu’un médecin noté 5/5 vaut mieux qu’un autre noté 3,5/5. La note est devenue un fait social, un fait qui s’impose à nous que l’on veuille ou non. On apprend depuis la maternelle à être noté, donc on ne questionne plus tellement la pertinence de la notation.

Les systèmes de notation sont souvent comparés à l’épisode Chute Libre de la série Black Mirror, dans lequel les personnages se notent tous, tout le temps, via une application. Peut-on craindre l’apparition d’un tel système ?

V.C. :  Dans l’épisode de Black Mirror, il s’agit d’une application unique qui permet de tout noter tout le temps. Or, on s’est rendu compte que lorsque des solutions de la sorte étaient proposées, ça ne marchait pas. C'était le cas d'une application baptisée Peeple, par exemple. La notation fonctionne lorsque c’est accessoire, quand c’est associé à un service ou un produit. Une application unique à la Black Mirror n’est donc pas forcément le scénario le plus probable. Ce qui est certain c’est que la notation va continuer de progresser, mais via différentes plateformes. Il est toutefois possible que les différentes notes d’une même personne soient unifiées, ou que la note obtenue pour un service donné soit utilisée par un autre pour proposer ou non des avantages. Lorsqu’il était ministre de l’Économie, Emmanuel Macron avait émis l’idée qu’une bonne note d’un chauffeur Uber pourrait être utilisée si ce dernier souhaitait se reconvertir et demander un prêt à une banque.

Même en Chine, un système de notation unique institué par le gouvernement n’existe pas. Votre enquête démonte cette idée reçue.

V.C. : On a cru que le système de crédit social chinois était un système de notation et ce n’est pas le cas. Le système de crédit social est plutôt un système de casier judiciaire centralisé. Il permet de connaître et suivre les délits commis par une personne, y compris lorsque celle-ci change de province. C’est l’idée de départ. Il y a bien des expérimentations locales avec des systèmes de notes. À Rongcheng où nous sommes allés, les citoyens sont notés et la note est visible sur des panneaux affichés dans la ville. Mais ce n’est pas le cas dans toute la Chine.

En parallèle de cela, il y a la note de l’entreprise Alibaba, le Sesame crédit, qui a été présentée comme un système de contrôle social mis en place par le gouvernement. Ce n’est pas le cas. Le gouvernement chinois a déclaré que le Sesame crédit ne l’intéressait pas. Et quand on interroge des utilisateurs et chercheurs spécialistes du sujet on se rend compte que c’est plutôt un système de fidélité. Plus le score est élevé, moins chère sera la caution à payer pour prendre un vélo en libre service via Alipay, l’appli de paiement d’Alibaba, par exemple. On est assez loin d’un système de punition des citoyens qui se comportent mal. Avec le nombre de données collectées par Alibaba on pourrait imaginer des systèmes inquiétants mais ce qui existe aujourd’hui est assez loin de ce qui a été décrit dans les médias occidentaux. Par ailleurs, les Chinois ne prêtent pas tellement attention à leur Sesame crédit, beaucoup ne connaissent pas leur score, ce n’est pas quelque chose qui détermine leur quotidien.

Marine Protais

À la rubrique "Tech à suivre" de L'ADN depuis 2019. J'écris sur notre rapport ambigu au numérique, les bizarreries produites par les intelligences artificielles et les biotechnologies.

Discutez en temps réel, anonymement et en privé, avec une autre personne inspirée par cet article.

Viens on en parle !
Podacast : En immersion
commentaires

Participer à la conversation

  1. Avatar Lou Dneiv dit :

    Merci pour cette interview très complète ; une véritable transcription textuelle de l'entretien sur France Inter ce matin. J'espère qu'il y a encore de la substance dans votre livre après en avoir tant dévoilé ici !

    • Avatar Marine Protais dit :

      Bonjour,
      Merci pour votre commentaire. Oui le livre est très riche, de nombreux thèmes (la notation en entreprise, les origines historiques de la note, la notation des établissements de santé...) et réflexions ne sont pas abordés ici.

  2. Ce titre <3 la guerre des étoiles.

Laisser un commentaire