Un couple Sims se regarde amoureusement

Deux ChatGPT qui parlent ensemble, c'est fascinant, mais ça bugge énormément

© Sims

De nouveaux modèles combinant plusieurs agents conversationnels capables d'interagir entre eux subjuguent les GPT-bros depuis quelques semaines. Mais sont-ils vraiment utiles ?

Petit ChatGPT a grandi et maintenant il se parle à lui-même. Une autonomie qui lui permettrait d’accomplir de grandes choses, espèrent certains développeurs. Depuis quelques semaines, des équipes de recherche ou d’ingénierie mettent au point ce qu’on appelle des « agents », des programmes générateurs de texte, capables d'interagir entre eux. 

« Plutôt que de devoir donner des instructions à ChatGPT, il se prompte lui-même », résume Pierre-Carl Langlais, directeur de la recherche de l’institut Opinion Science (sous le pseudo d’Alexander Doria). Il réalise une chaîne de tâches qu’il autodétermine afin de parvenir à une mission complexe comme coder tout un site Web, créer une newsletter… Chose que – jusqu’alors – ChatGPT ne parvenait pas à faire en un seul prompt. 

Analyse de marché, idée de business… 

Si vous demandez à ChatGPT de développer une application d’e-commerce à votre place, il est peu probable que le chatbot s’exécute. Au mieux, il vous donnera quelques conseils avisés, au pire un code pas vraiment exploitable. Pour que le chatbot parvienne à un résultat cohérent, il faut savoir bien le guider. 

« En code, ChatGPT ne sait pas réaliser directement une tâche complexe, surtout lorsque l’instruction est vague. Il faut découper la tâche en petits morceaux, et lui poser des questions très précises, explique Pierre-Carl Langlais. C’est pour cela qu’il n’est pas si utile que ça pour des personnes qui ne savent pas du tout coder. »

En théorie, les agents autonomes permettent de se passer de toutes ces étapes d’allers-retours entre l’homme et la machine. C’est notamment la promesse d'AutoGPT, un agent développé par Toran Bruce Richards et mis en ligne sur GitHub. Son code a déjà récolté plus de 80 000 étoiles (équivalents des « j’aime » ) sur cette plateforme consultée par les développeurs – un très bon score, sachant qu’une centaine d’étoiles est déjà considérée comme honorable. AutoGPT est même devenu un « trending topic » de Twitter.

Sur le réseau social, de nombreux threads et vidéos montrent AutoGPT en train de réaliser toutes sortes de missions plus ou moins utiles : benchmark détaillé de marques de chaussures waterproof en quelques minutes, préparation d'un podcast en se renseignant sur l’actualité (car les agents sont souvent capables d’aller chercher une information en ligne). Et bien sûr, il existe déjà un « HustleGPT » soi-disant capable de vous créer une boîte avec moins de 100 dollars. 

De super Sims

Certaines expérimentations sont encore plus fascinantes. L’une de celles qui ont été les plus relayées dans la presse spécialisée et sur les réseaux sociaux nous vient de Stanford. Des chercheurs ont créé une mini-ville virtuelle dans laquelle 25 agents ont été placés. Ceux-ci se sont mis à interagir entre eux, organiser une fête, parler d’élection municipale, se brosser les dents le matin, se transmettre des informations… Comme des sortes de super Sims reproduisant le comportement humain, sans avoir été programmés spécifiquement pour cela. 

Les plus technophiles veulent voir dans l’apparition des agents, l’avènement d’une intelligence artificielle forte, c’est-à-dire une IA pouvant se passer complètement de l’humain. D’ailleurs un autre agent populaire s’appelle « BabyAGI ». AGI signifie « intelligence artificielle générale », un concept qui désigne une IA plus “intelligente” que l’humain. 

Pour Pierre-Carl Langlais, cette perspective est exagérée. « Pour le moment, on se rend surtout compte que cela ne fonctionne pas très bien. Le problème c’est que les agents sont des modèles probabilistes, et qu’ils peuvent se tromper et partir dans une mauvaise direction. Il y a environ 5 % de chance qu’un programme comme ChatGPT échoue. En soi, ce n’est pas si mal. Mais à chaque interaction entre deux agents, cette probabilité se répète. En moyenne pour réaliser une tâche, les agents ont une vingtaine d’interactions. » Il cite notamment une expérimentation dans laquelle un chercheur a tenté de faire écrire un projet de recherche de 2 000 mots par un agent, et celui-ci s’est donné pour mission : « Penser à écrire un projet de recherche » et du coup ne l’a pas fait. Une réaction probable dans le contexte d’une conversation, mais qui fait déraper l’expérience. 

La vraie utilité : pour les jeux vidéo 

Selon le directeur de la recherche d’Opsci, en utilisant les agents on passe aussi à côté de l'interaction homme-machine, qui est précisément intéressante dans le cas de ChatGPT. 

Pour des applications très pratiques, les agents n’ont donc pas encore fait leurs preuves. En revanche, ils pourraient intéresser l’industrie du jeu vidéo, notamment pour incarner des NPC (non playing character, des personnages non joueurs). « Même s’ils vont dans des directions étranges, ce n’est pas grave. Les ratés font même partie de l’expérience. » D’ici deux ou trois ans, il est probable que des jeux adoptent cette technologie, estime Pierre-Carl Langlais.

Marine Protais

À la rubrique "Tech à suivre" de L'ADN depuis 2019. J'écris sur notre rapport ambigu au numérique, les bizarreries produites par les intelligences artificielles et les biotechnologies.
commentaires

Participer à la conversation

Laisser un commentaire