
Le mouvement international PauseAI a manifesté pour la première fois à Paris. Le collectif veut lancer l’alerte avant le sommet de l’IA de Séoul.
Lundi 13 mai, un petit groupe se forme place Jacques Bainville, dans le 7e arrondissement de Paris. « Stop à la course au suicide », « Arrêtons l’IA-pocalypse », lit-on sur les pancartes. Il s’agit de la toute première manifestation de PauseAI France, jeune collectif déterminé à alerter le public et les décideurs politiques sur les risques de perte de contrôle posés par les systèmes d’intelligence artificielle « frontières » (plus performants que ChatGPT 4). À l’approche du Sommet de l’IA de Séoul, prévu les 21 et 22 mai, ce mouvement également présent à l’international demande « une pause immédiate dans le développement des systèmes d'IA avancés, jusqu'à ce que nous puissions garantir leur développement sûr et leur contrôle démocratique. »
On peut être technophiles et inquiets
Les membres de PauseAI sont loin d’être technophobes. La plupart reconnaissent le potentiel bénéfique de l’IA dans de nombreux domaines, comme la création de nouveaux matériaux ou le diagnostic médical. « On n’est pas contre la technologie, on est juste conscients des risques » , renseigne Maxime Fournes, organisateur du rassemblement parisien. Passionné depuis ses 15 ans par l’idée qu’on puisse automatiser l'intelligence, Maxime a été quant (trader quantitatif) dans un hedge fund londonien, avant de concevoir et d’implémenter des modèles de deep learning pour le secteur privé.
« J’ai longtemps pensé que le développement de l’IA serait probablement bénéfique sur le long terme. Mais j’ai vu les avancées fulgurantes de l’intérieur, et j'ai commencé à douter que la société aurait le temps de s'y adapter. » En demandant une pause dans le développement de cette technologie, c’est aussi sa carrière que le jeune homme met entre parenthèses. « Ce que je fais là, c'est du sabotage professionnel. Je pourrais aller bosser pour Mistral ou DeepMind, gagner je ne sais combien d'argent. »
De quels risques parle-t-on ?
Les outils d’IA donnent le pouvoir de nuire à grande échelle. Les deepfakes ont encore démontré ce potentiel de nuisance lorsque des images pornographiques de Taylor Swift, créées en deux clics à l’aide d’IA génératives, ont massivement circulé sur X. Les possibilités offertes par l’IA pour la manipulation de l’information en ligne, le remplacement des travailleurs et la surveillance de masse soulèvent leur lot d’inquiétudes. Par ailleurs, ces IA génératives sont décriées pour leurs biais racistes, sexistes et spécistes, qui persistent parfois en dépit des efforts de leurs concepteurs.
Pour PauseAI, ce n’est là que le début. À mesure que les systèmes d’IA gagnent en puissance et en généralité, de nouvelles classes de risques apparaissent. Les scénarios de perte de contrôle restent spéculatifs, mais « il faut bien comprendre que les IA ne sont pas programmées de A à Z, rappelle Maxime Fournes. Ce sont des sortes de cerveaux artificiels, composés de trillions de nœuds qui se transmettent de l'information. Les connexions sont aléatoires : on fournit des données au réseau, on regarde ce qui en sort, et on l’améliore petit à petit par le biais d’un mécanisme punition-récompense. » Cette méthode fait de l’IA une boîte noire dont on peine à interpréter le fonctionnement. Le périmètre des risques s’élargit à mesure que nous intégrons l’IA à divers domaines de la vie personnelle et de l’économie – comme c’est le cas pour Internet aujourd'hui – et que nous lui déléguerons des tâches.
« L'esprit humain ne saisit pas vraiment la violence des processus exponentiels, pèse Charbel-Raphaël Segerie, directeur exécutif du tout nouveau Centre pour la Sécurité de l’IA (CeSIA). Avec le Covid-19, on observait bien des phénomènes émergents en Chine, mais on ne pensait pas que ça arriverait jusqu'en France. On ne s'est pas suffisamment préparés et on a subi l'épidémie de plein fouet. Je pense qu'on est encore moins prêts à l'émergence de l'IA générative, et potentiellement de niveau humain. »
Le p(doom) des chercheurs en IA
En mai 2023, les CEO des plus importantes entreprises de l’IA, dont Sam Altman d’OpenAI, Demis Hassabis de DeepMind et Dario Amodei d’Anthropic, ainsi que les prix Turing 2018 Geoffrey Hinton et Yoshua Bengio, affirmaient conjointement que « la réduction du risque d'extinction lié à l'IA devrait être une priorité mondiale, au même titre que d'autres risques sociétaux tels que les pandémies et les guerres nucléaires. »
Ces inquiétudes sont partagées par une partie non négligeable du milieu de la recherche. AI Impacts, organisation proche du mouvement de l’altruisme efficace, a publié en janvier les résultats d’un sondage réalisé auprès de 2 700 chercheurs en IA. Les estimations de « p(doom) », c'est-à-dire de probabilité de scénarios catastrophes causés par l’IA (également appelés x-risks), sont remarquablement élevées. Près de 40 % des chercheurs interrogés sur le sujet pensent qu’il y a une probabilité de 10 % ou plus que les systèmes d’IA les plus développés aient un « impact extrêmement grave sur le long terme, par exemple d’extinction humaine ».
« Qui accepterait d’embarquer dans un avion qui a une chance sur 10 de s'écraser ? Avec l’AI, on parle d’un avion avec 8 milliards de personnes » , s’indigne Maxime Fournes. Charbel-Raphaël Segerie fait quant à lui le parallèle avec la crise climatique, à savoir « des scientifiques qui alertent, mais un message qui prend du temps à se diffuser, qui au début n'est pas pris aux sérieux, bien qu’il soit alimenté par une importante littérature scientifique ».
Vers une gouvernance de l’IA
Jusqu’ici, les progrès en IA ont pris l’allure d’une course à l’armement technologique dans laquelle chaque entreprise poursuit avant tout son intérêt, notamment économique, à occuper le peloton de tête. Cette logique compétitive s'accommode mal de garanties robustes de sécurité, et ne laisse aucune place au débat démocratique sur les modalités de déploiement de la technologie.
Les premiers jalons d’une gouvernance de l’IA se mettent néanmoins en place. Le récent AI Act européen, première législation mondiale à réguler les modèles d’IA avancés, pose entre autres des limites à la surveillance de masse des populations, en interdisant les systèmes de notation sociale similaires à ceux utilisés par la Chine. Pour la suite, Maxime Fournes imagine des collaborations entre PauseAI France et divers acteurs touchés par les risques de l’IA, tels que les personnalités publiques touchées par les deep fakes, ou les syndicats de travailleurs menacés par l’automatisation de leur travail.
Participer à la conversation