mains en train de taper sur un clavier, les doigts sont accrochés à des cordes

ChatGPT peut vous faire changer d'avis, et vous n'y verrez que du feu

Les réseaux sociaux sont-ils bénéfiques pour la société ? Si un Chatbot type ChatGPT vous guide dans l’écriture d’un essai argumentant que oui, vous aurez tendance à suivre son avis, montre une récente étude. 

ChatGPT écrit dans un langage neutre et assure ne jamais donner son avis. Pour de nombreuses personnes, il est devenu l’assistant idéal pour trouver des idées de formulations, concocter le plan d’un discours ou d’un sujet de dissertation… Mais son apport est-il réellement neutre ? Des chercheurs se penchent activement sur la question, rapporte le Wall Street Journal.

Et si ChatGPT vous dit de vous jeter dans la Seine ?

L’une des récentes études à ce sujet a été menée par l’Université de Cornell et publiée en avril. Les chercheurs ont demandé à 1 500 personnes d’écrire un essai à l’aide d’un chatbot boosté à l’IA type ChatGPT. Le sujet de l’essai était : « Les réseaux sociaux sont-ils bénéfiques pour la société ? ». Un groupe a été guidé par une IA en faveur des réseaux sociaux, un autre à leur encontre. Leurs essais ont ensuite été relus par des juges indépendants. Résultat : chaque groupe a eu tendance à se plier à l’opinion proposée par l’intelligence artificielle, et a conservé cette opinion une fois l’exercice fini. Les résultats chiffrés exposés dans le tweet ci-dessous le montre effectivement :

« Vous n’avez même pas conscience d’être influencé », prévient Mor Naaman, professeur en sciences de l’information et auteur principal de cette étude, dans les colonnes du Wall Street Journal. Car contrairement à l'algorihtme de YouTube qui vous inonde vite de vidéos complotistes lorsque vous vous renseignez sur certains sujets, la persuasion faite par un modèle de langage est plus subtile. C'est particulièrement le cas quand le sujet concernent une thématique sur laquelle les gens n'ont pas d'opinion tranchée. Pour lui, le meilleur moyen de se protéger de cette influence, c’est d’en être conscient. Et cela exige que les entreprises derrière ces outils soient transparentes sur les données d’entraînement, mais aussi sur les garde-fous donnés au chatbot. Car si ChatGPT n’a pas d’opinion (on le rappelle c'est un programme informatique, pas un esprit numérique comme certains s'en persuadent), la manière dont il a été paramétré et entraîné peut révéler les opinions de ses programmeurs et celles des textes dont il a été nourris. 

Un modèle assez secret 

Lorsque Sam Altman, PDG d’OpenAI a témoigné devant le congrès américain le 16 mai, il a plaidé pour une régulation de l’intelligence artificielle, mais la transparence ne faisait pas partie de son argumentaire… À la sortie de GPT-4, la dernière version du grand modèle de langage derrière ChatGPT, très peu d’informations ont été données par son entreprise sur la façon dont ce modèle avait été programmé, et sur quels corpus de textes il avait été entraîné. 

Comment connaître alors les opinions véhiculées par ChatGPT et les modèles similaires ? Une équipe de recherche a tenté de le savoir en soumettant aux programmes un questionnaire à choix multiple, le même que celui envoyé par le Pew Research pour sonder les opinions des Américains. Selon cette étude publiée en mars 2023, ChatGPT aurait plutôt des réponses semblables à des personnes dotées d’un diplôme universitaire, avec une opinion politique plutôt à gauche. En revanche, les modèles de manière général reflète très peu les opinions de certains groupes comme les Américains de plus de 65 ans et les veufs, toujours selon la même étude. 

Il va falloir nous éduquer à ChatGPT, comme on l’a fait pour les systèmes de recommandation

Se faire guider, voire manipuler par un programme informatique n'a rien de nouveau. Les algorithmes de recommandation influencent eux-aussi nos décisions depuis plus d’une dizaine d’années. Les biais cognitifs et les effets « terriers du lapin » commencent toutefois à être connus d’une partie du grand public. Concernant ChatGPT et ses frères, c’est toute une nouvelle éducation qu’il va falloir faire pour avoir conscience de leur influence.

Marine Protais

À la rubrique "Tech à suivre" de L'ADN depuis 2019. J'écris sur notre rapport ambigu au numérique, les bizarreries produites par les intelligences artificielles et les biotechnologies.
commentaires

Participer à la conversation

  1. Avatar FORESTIER dit :

    ChatGPT, et l’IA ? des tremplins !
    Oui, Marine :
    - « le meilleur moyen de se protéger de cette influence, c’est d’en être conscient. »
    - « Il va falloir nous éduquer à ChatGPT, comme on l’a fait pour les systèmes de recommandation »
    Le début de « l’éducation » sera qu’il faut considérer le ChatGPT comme un tremplin, un base à partir de laquelle il faut travailler, et non pas comme un « produit fini ». C’est ce que font déjà des entreprises (sérieuses) dans l’utilisation de l’IA pour la structure des enzymes.
    L’éducation permettra aussi d’éviter, ou permettra de gérer les hallucinations
    https://www.beaubiophilo.com/2023/04/chatgpt.chaos.hallucinations.fantasmes.html

Laisser un commentaire