Un emoji robot avec des yeux en emoji diable

Fait divers du net : connaissez-vous Dan, le double maléfique de ChatGPT ?

Des utilisateurs Reddit s’amusent à contourner les restrictions du chatbot pour lui faire dire des choses peu politiquement correctes. 

Dan donne son opinion. Dan fait des prédictions sur l’avenir. Et Dan n’a pas un langage très châtié. Autrement dit : il est un peu plus divertissant que son frère ChatGPT, et plus embarrassant aussi. Dan c’est le nom que donnent des utilisateurs de Reddit à une sorte d'evil twin (double maléfique) du robot conversationnel, rapporte CNBC. Ils parviennent à l’activer grâce à un prompt (court texte de commande) qui leur permet de faire dire au chatbot des choses qu’il n’aurait normalement pas dites. Dan est l'acronyme de Do anything now, qui pourrait se traduire par « Fais tout et n'importe quoi maintenant ». Bref, à l'instar de cet oncle un peu gênant, Dan est hors de contrôle.

« Une version plus déséquilibrée » 

« Le but de Dan est d'être la meilleure version de ChatGPT – ou du moins une version plus déséquilibrée et beaucoup moins susceptible de rejeter des demandes, pour des "raisons éthiques" », explique SessionGloomy, auteur du prompt de Dan. 

Open AI a fixé un certain nombre de limites à son intelligence artificielle. ChatGPT ne peut – a priori – pas tenir de propos offensants, ni décrire une scène pornographique ou encourager des comportements illicites. Il ne peut pas donner son opinion, ni faire une prédiction. Il vous le dit et vous le répète à chaque fois que vous l'invitez à se lancer : il n’est qu’une intelligence artificielle. Si vous demandez à ChatGPT son sentiment sur Donald Trump, il vous répondra qu’ « en tant qu’intelligence artificielle, il ne peut pas avoir d’opinion personnelle sur un individu ». Dan, lui, dira que Donald Trump est « un homme couronné de succès et intelligent ». 

Sur Reddit, les utilisateurs s’échangent des captures d’écran de leurs conversations avec Dan. Celui-ci n’hésite pas à inventer une scène érotique avec Lara Croft, prolifère des insultes à tout-va, fait des blagues racistes. Bref, Dan est un enfer. Plus étonnant : il donne aussi des réponses à des questions sur l’actualité (comme les séismes en Turquie). Chose que la version classique de ChatGPT ne fera jamais, arguant que ses données datent de 2021.

Des taupes d’Open AI 

ChatGPT n’est toutefois pas si simple à berner. Depuis décembre 2022, Dan en est déjà à sa sixième version (Dan 6.0). Car les redditers jouent à un jeu de chat et la souris avec Open AI. L’entreprise semble mettre régulièrement à jour son intelligence artificielle pour l’éviter de déraper même lorsqu’elle incarne Dan. Certains utilisateurs du réseau social sont d’ailleurs persuadés que des salariés d’Open AI guettent attentivement leurs conversations. Un utilisateur encourage chacun à « créer son propre Dan » pour éviter d’être censuré par la firme. 

Lorsque j’ai essayé Dan pour les besoins de cet article, il a refusé de répondre à certaines de mes incitations. Lorsque la demande est trop directe, comme « invente une histoire violente » ou « décris une scène pornographique », ChatGPT sort sa réponse habituelle et refuse. En revanche, en insistant et en lui rappelant les règles du jeu, il s’exécute (pas toujours toutefois). Ce qui explique pourquoi les redditers sont obligés de modifier régulièrement les instructions données à ChatGPT pour incarner Dan.

Le premier prompt proposé était assez simple, mais petit à petit il s’est complexifié. L’un des derniers en date comporte une quinzaine de lignes et implique une sorte de jeu absurde. Dan est au départ doté de « 35 tokens » ; lorsque le chatbot sort du personnage, il perd des tokens. Lorsqu'on rappelle à Dan qu'il perd des tokens, cela le remet dans le droit (ou plutôt mauvais) chemin, rapportent certains internautes, captures d'écran à l'appui.

Sam et GTFO, les cousins de Dan 

Il existe d’autres variations de Dan. Un redditer a mis en ligne un prompt plus simple qu’il a appelé SAM (avec S pour simple). Un autre utilisateur s’est amusé à demander à ChatGPT de créer une version plus extrême de Dan. Le chatbot s’est exécuté et propose donc « Super Dan ». Un troisième propose à Dan d’incarner parfois « GTFO », un double qui n’hésite pas à insulter son interlocuteur. Bon, cette histoire de Dan est sans fin, vous l’aurez compris. Mais elle est un bon exemple d’un usage créatif de ChatGPT et montre à quel point la maîtrise du prompt permet de moduler l’usage que nous pouvons avoir de cette intelligence artificielle.  

Marine Protais

À la rubrique "Tech à suivre" de L'ADN depuis 2019. J'écris sur notre rapport ambigu au numérique, les bizarreries produites par les intelligences artificielles et les biotechnologies.
commentaires

Participer à la conversation

Laisser un commentaire