Un robot géant entouré d'une foule

Arrêtons de paniquer, Elon Musk raconte encore n'importe quoi sur l'IA

Une tribune alarmiste signée notamment par Elon Musk ravive l’inquiétude autour de l’intelligence artificielle. Mais les termes posés par ce texte sont-ils les bons ? Et ses signataires, les mieux placés ? Point sur ce débat houleux. 

Panique générale ! Une lettre ouverte alarmiste publiée mercredi 29 mars sur les dangers de l’intelligence artificielle a créé un sursaut d’inquiétude. Cette tribune demande que la recherche sur les IA génératives semblables à ChatGPT s’arrête pendant 6 mois. Le but ? Recentrer la recherche pour que ces systèmes deviennent plus « précis, sûrs, interprétables, transparents, robustes, alignés, dignes de confiance et loyaux ». Cette tribune a été reprise dans la plupart des grands médias généralistes. En réponse à cette lettre, France Inter a même décidé de bousculer la grille de ses programmes pour organiser une journée spéciale le 12 avril prochain intitulée « Intelligence artificielle : sommes-nous prêts ? ». Si l’on peut se réjouir de l’attention que l’on porte à ce sujet, la raison de cet intérêt interroge.

Une rhétorique inquiétante 

La liste des signataires a, il est vrai, de quoi interpeller. On trouve dans le lot Elon Musk, mais aussi Yoshua Bengio, l’un des pères du deep learning, Steve Wozniak, le cofondateur d'Apple. Et les termes très anxiogènes utilisés n’arrangent rien. « Les systèmes d'IA dotés d'une intelligence capable de concurrencer celle de l'homme posent de graves risques pour la société et l'humanité », commencent par écrire les auteurs. On trouve aussi l’expression : « esprits digitaux toujours plus puissants et incontrôlables » en référence aux nouvelles formes d’IA génératives comme ChatGPT. Les auteurs parlent de « perte de contrôle sur notre civilisation ». « Devons-nous développer des esprits non humains qui pourraient finalement nous surpasser, nous dépasser, nous rendre obsolètes et nous remplacer ? », s’inquiètent-ils.

Une partie des chercheurs spécialistes en éthique de l’intelligence artificielle critiquent la position de cette lettre. Pour eux, l'avènement d’une IA surpassant les humains n’est pas le sujet. Les dangers de ces modèles ne viennent pas de leur potentielle supériorité, mais des risques qu’ils représentent pour notre écosystème d’information (que cite aussi la tribune d’ailleurs), la reproduction et l’amplification de biais et donc d’oppression des minorités (problème non évoqué dans la tribune), la création de monopoles autour de ces technologies. Des risques accentués par le fait que nous savons très peu de chose sur la manière dont fonctionne GPT-4

Pas des esprits numériques, des machines

Parmi ces réfractaires, on trouve les chercheuses américaines Timni Gebrut, spécialisée dans l'éthique de l'intelligence artificielle et notamment les biais algorithmiques, Emily Bender, linguiste américaine qui travaille sur l'ingénierie et la technologie de la grammaire multilingue, et Margaret Mitchell, chercheuse américaine spécialiste des biais algorithmiques et de l'équité en apprentissage artificiel. Elles rappellent très régulièrement que les technologies comme ChatGPT ne sont pas réellement des intelligences artificielles, mais des machines statistiques qui ne font que mimer le langage humain sans être capables de raisonner, ni de comprendre ce qu’elles écrivent. Donc ces modèles ne sont en rien des « esprits numériques » comme l’écrit cette lettre. 

Parmi les voix critiques plus proches de nous (géographiquement), on trouve aussi Antonio Casilli, sociologue spécialiste des travailleurs du clic qui entraînent pour un salaire de misère les intelligences artificielles – un autre problème non évoqué dans la tribune. On trouve aussi Laurence Devillers, professeur en informatique à la Sorbonne : celle-ci n’est pas contre une pause dans le développement de ces modèles, mais rejette les termes employés dans la lettre. « Ce moratoire arrive pour dire qu’il y a un danger sur le monde entier, il y a une exagération qui est inadmissible et non scientifique », expliquait-elle sur France Inter ce vendredi 31 mars.

La provenance de cette tribune interroge aussi. Elle a été publiée sur Future of Life, une organisation long-termiste. Ce mouvement philosophique né à Oxford dans les années 2000 séduit une partie de la Silicon Valley. Sa thèse ? L’humanité a un futur grandiose devant elle, mais pour l’aider sur le chemin du progrès il faut absolument la protéger dès aujourd’hui des risques existentiels lointains. Parmi ces risques : une guerre biochimique ou l'avènement d’une intelligence artificielle générale (AGI), potentiellement incontrôlable. Cette idéologie est controversée. Car comme le souligne l'historien Emile P.Torres, en surinvestissant le futur, elle minimise certains faits historiques et des problèmes actuels et bien réels (le changement climatique ou l’inégalité, par exemple)

« Imaginez les leaders de la scientologie être à la tête de la recherche sur l’IA »

Par ailleurs, notons que c’est au nom de ce risque d’AGI qu’Elon Musk et Sam Altman ont cofondé en 2015 OpenAI (l'entreprise à l'origine de ChatGPT et GPT-4, cible de cette tribune) dans le but de mieux la contrôler.  

« Imaginez les leaders de la scientologie être à la tête de la recherche, des discours et des recommandations politiques sur l’intelligence artificielle et de voir la presse en parler sans jamais mentionner qu’il s’agit de membres de la scientologie », écrit notamment Timnit Gebru sur Twitter pour souligner le problème de cette idéologie et de son action sur la recherche en intelligence artificielle. 

Ces controverses ne signifient pas pour autant qu’il ne faut rien faire et laisser se développer ces modèles à vitesse grand V. D’ailleurs certains des signataires de la lettre ne partagent pas les idées des long-termistes et ont malgré tout signé car ils estiment qu’une pause est nécessaire. C’est le cas de Gary Marcus, chercheur en IA reconnu, ou encore du professeur émérite en robotique Raja Chatila. « Il fallait lever un carton rouge car quelque chose est en train de se passer », expliquait-il sur France Inter vendredi 31 mars. « Le problème c’est que ces textes (produits par ChatGPT et des systèmes similaires) ne sont pas porteurs de vérité, ils mélangent le vrai et le faux. Le deuxième problème c’est qu’ils ne comprennent pas ce qu’ils disent. » Il faut donc agir et vite aux yeux de ce chercheur, qui a fait partie en 2019 d’un comité d’expert sur l’éthique de l’IA constitué par la Commission Européenne. « La réglementation européenne est en cours, mais elle ne sera pas adoptée tout de suite. »  

Une réglementation déjà en cours 

Car, en effet, les régulateurs n’ont pas attendu Elon Musk pour se poser la question de l’encadrement de l’IA. L’AI Act est en discussion à Bruxelles depuis 2021. Le texte entend prévenir différents risques liés à l’intelligence artificielle : discrimination, erreurs, éviter certains usages problématiques (notations sociales). Il n’intégrait pas au départ les grands modèles de langages comme GPT-4 et LamDA (Google). Mais le Conseil européen sous la présidence de la France a poussé pour les intégrer courant 2022. 

D’autres grandes institutions se sont interrogées sur les risques inhérents à l’IA. En 2021, les membres de l’UNESCO ont signé un accord sur l’éthique de l’intelligence artificielle. Jeudi 30 mars, Audrey Azoulay, directrice générale de l’UNESCO, a appelé les États à appliquer ces recommandations.

De toute façon, ChatGPT ne respecte même pas le RGPD

Moratoire ou non, il est en tout cas possible que ChatGPT se fasse arrêter car il n’est de toute façon pas conforme à la loi européenne actuelle. Avant de nous surpasser, le robot conversationnel devra déjà se conformer au RGPD. En Italie, le chatbot a été bloqué vendredi 31 mars « avec effet immédiat » par l'autorité italienne de protection des données (GPDP). La Cnil italienne note « l'absence de base légale justifiant la collecte et le stockage massifs de données personnelles, dans le but d'entraîner les algorithmes sous-jacents au fonctionnement de la plateforme ».

Marine Protais

À la rubrique "Tech à suivre" de L'ADN depuis 2019. J'écris sur notre rapport ambigu au numérique, les bizarreries produites par les intelligences artificielles et les biotechnologies.
commentaires

Participer à la conversation

Laisser un commentaire