
Le média britannique a demandé à une intelligence artificielle de générer un texte et l’a publié sans en dévoiler tous les artefacts. Un mauvais traitement médiatique de l’IA, selon certains chercheurs.
« Un robot a entièrement écrit cette tribune. Ça vous fait peur ? », titre The Guardian pour introduire une tribune générée par une intelligence artificielle. Le texte argumente point par point pourquoi les robots ne veulent aucun mal aux humains.
Pour générer ce texte, le quotidien britannique a utilisé un modèle d’intelligence artificielle baptisé GPT-3. Il s’agit d’un générateur de textes développé par OpenAI, une société co-fondée par Elon Musk (et oui, encore lui). La sortie de ce programme en juillet 2020 avait déjà fait couler beaucoup d’encre. Le Figaro le disait capable « de rivaliser avec Ernest Hemingway » , pour Le Point GPT-3 voudrait « surclasser Virginia Woolf » ... Un blog dont les articles ont tous été générés par cette IA a même été classé en top par un agrégateur d’informations.
Le texte publié par The Guardian est, il est vrai, assez impressionnant (c’est pas du Virginia Woolf non plus, hein). Mis à part certains arguments un peu plats – « je n’ai pas envie de vous éradiquer car vous faire du mal ne m’intéresse pas » – l’ensemble est plutôt bien ficelé, avec quelques envolées lyriques sur le droit des robots.
Mieux qu’une tribune écrite par un humain ?
Sauf que l’intelligence artificielle n’a pas fait le boulot toute seule. The Guardian précise dans une note à la fin du texte que la tribune a été éditée à partir de huit essais initiaux générés par GPT-3. Par ailleurs, l’idée de défendre le pacifisme des robots n’est évidemment pas la décision de l’intelligence artificielle. Le média britannique a donné au programme des instructions précises et une suggestion d’introduction. Malgré cela, The Guardian souligne qu’éditer ce texte n’était pas plus difficile que d’éditer un texte écrit par une personne faite de chair et d’os. « Finalement, ça a pris moins de temps que pour beaucoup de tribunes écrites par des humains.» Oups.
Le média n’a toutefois pas publié l’ensemble des essais générés par GPT-3, difficile donc de juger quelle est la part exacte de travail effectuée par les journalistes du Guardian et celle de l’IA, note The Next Web.
Typique des médias qui survendent les capacités de l’IA
Pour s’en rendre compte, la chercheuse en intelligence artificielle Janelle Shane a reproduit la démarche du quotidien britannique. Elle aussi a demandé à GPT-3 de produire des essais à partir des instructions du Guardian et a publié les résultats sur Twitter. Dans les textes, on trouve des arguments sensés comme ceux publiés par The Guardian mais aussi des phrases absurdes qui n’auraient jamais eu leur place dans une tribune : « Veuillez joindre un portfolio de votre travail » ou « quant à moi, j’envoie mes meilleurs vœux à tout le monde pour 2017».
As @thomas_macaulay notes here, @guardian's GPT-3 generated article was actually assembled by a human editor from 8 generated articles.
They don't post the original articles so we can't see how much the editors intervened. But I have GPT-3 access.https://t.co/5UBMkKjB8V
— Janelle Shane (@JanelleCShane) September 9, 2020
Pour le chercheur et écrivain scientifique Martin F. Robbins, le texte publié par le Guardian est problématique. « C’est comme si j’avais coupé et collé différentes parties de mes derniers e-mails reçus dans la boîte spam, et prétendu que les spammers ont écrit du Hamlet », estime-t-il dans un tweet. En publiant cette tribune, le quotidien triche et survend, comme de nombreux médias, les capacités réelles de l'IA, juge le chercheur.
Watching journalists cheat to make a tech company's algorithm seem more capable than it actually is…. just…. have people learned nothing from the last decade about the importance of good coverage of machine learning? https://t.co/jzXly03zZ5
— Martin F. Robbins (@mjrobbins) September 8, 2020
Non, les robots n'ont pas d'opinion
Par ailleurs, en faisant le choix de publier une tribune (et non un article factuel), The Guardian entretient l'idée que les algorithmes d'intelligence artificielle ont des opinions et des intentions propres. C’est aussi le cas lorsque les robots perfectionnés comme l’humanoïde Sophia sont interviewés par les journalistes et invités sur des plateaux télé comme s’ils étaient de vraies personnes dotées de sentiments, de préférences, d’opinions, et même de conscience d’eux-mêmes. Certes, c’est divertissant, mais c’est aussi un leurre, qui peut s’avérer dangereux, estime notamment la chercheuse en IA et éthique Laurence Devillers. À ses yeux, Sophia n’est qu’une marionnette, qui « trompe le public en lui faisant croire que les robots autonomes sont beaucoup plus avancés que ce qu’ils ne sont » .
Participer à la conversation