AurelieJean

Aurélie Jean : « Les postures long-termistes et apocalyptiques nous éloignent des vrais enjeux de l'IA »

© Alcibiade Cohen

Rien de tel que la fiction pour envisager les conséquences d'une révolution technologique sans précédent. Entretien avec Aurélie Jean, docteure en sciences, entrepreneuse, et autrice avec Amanda Sthers d’une dystopie qui tape pile dans ce grand enjeu contemporain.

Si nous étions dans le monde de son nouveau livre Résistance 2050, Aurélie Jean aurait sans doute « uploadé » les réponses aux questions de cette interview directement dans ma boîte crânienne, via une puce cérébrale – à condition d'accepter d'en être équipé... Et c'est là tout l'enjeu de ce roman dystopique, écrit à quatre mains, entre Aurélie Jean, docteure en sciences et autrice de plusieurs essais de vulgarisation sur les algorithmes, et l’écrivaine à succès Amanda Sthers. Accepteriez-vous de vous faire greffer une puce cérébrale si elle était capable d’augmenter vos capacités intellectuelles, de prévenir les maladies, d’anesthésier la douleur…, mais aussi de vous exposer aux risques de piratage informatique et d’altérer votre libre arbitre ? Que feriez-vous si une telle innovation était adoptée par une large majorité, sous les encouragements des gouvernants, et que la refuser vous priverait de certains droits et vous isolerait de fait ? Autant de questions sur lesquelles le lecteur est invité à réfléchir.

Le lecteur de votre roman doit s’attendre à être pris dans 200 pages de dilemmes et à voir ses convictions ébranlées à chaque page…

Aurélie Jean : Amanda et moi ne voulions pas d’un récit manichéen. D’abord, ce n’est pas notre façon de voir le monde, ensuite nos personnalités sont assez différentes. Si nous étions confrontées au choix proposé dans le livre, Amanda refuserait la puce, tandis que je l’accepterais pour ses énormes bénéfices, individuels et collectifs. Mais je me battrais aussi pour un bon usage de la technologie. Ces deux choix distincts s’incarnent via les personnages d’Oona et Chloé, l’une artiste, l’autre scientifique – même si, contrairement à ce que projettent nos lecteurs, nous ne sommes pas elles ! Ce qui trouble nos lecteurs, c’est de repartir avec plus de questions que de réponses. Pour moi, l’objectif est atteint : nous les avons encouragés à entamer une réflexion. Et ce n’est pas si simple car le traitement médiatique de ces questions est souvent polarisé, clivant. Les caricatures n’aident pas à appréhender des sujets complexes.

Contrairement à la fiction ?

A. J. : J’aime la science-fiction, celle qui fait réfléchir sur le futur : Matrix, Blade Runner, Minority Report, Her… C’est un bon moyen pour entamer des conversations parfois difficiles à mener. Voyez le score social en Chine : en parler est anxiogène, le sujet provoque des réactions épidermiques. Pourtant, il est intéressant d’en discuter, ne serait-ce que pour l’éviter à nos sociétés. Mais quand une série comme Black Mirror s’en empare, on constate combien la fiction ouvre cet espace où la discussion et la réflexion sont enfin possibles.

Le roman pose en creux une série de questions – philosophiques, éthiques, politiques. Parmi elles, celle qui consiste à savoir ce qui tient un peuple ensemble, ce qui fait une nation.

A. J. : Souvent, Amanda me demandait au cours de l’écriture : « Qu’est-ce qui fait de nous des humains ? » C’est une question que je ne me posais pas vraiment. Les autres enjeux, je les avais en tête, bien sûr : comment orienter l’usage des technologies vers le bien ? Limiter le mal qu’elles peuvent engendrer ? Quid des questions géopolitiques ? Etc. Et maintenant, la question d’Amanda, je me la pose tout le temps.

Dans cette France de 2050, où certains sont pucés et d’autres pas, le contrat social n’est plus garanti, puisque les individus n’ont plus accès aux mêmes droits – alors qu’ils habitent pourtant le même pays, partageant une même Constitution. Un exemple : dans le récit, l'État souhaite se désengager des prisons, car la puce a permis de quasi éradiquer la criminalité. Une décision qui finit par être jugée anticonstitutionnelle, car l'État ne peut se désengager vis-à-vis d’une catégorie de la population – ici, sous prétexte qu’elle est non pucée.

J’espère que ce livre aidera à identifier nos prismes de pensée, à développer notre capacité d’empathie, pour réfléchir à ce qui nous unit et nous sépare, en tant que société – notamment en matière de droits.

Elon Musk a déclaré vouloir doter un humain d'un implant cérébral Neuralink dès 2023. Que faut-il en penser ?

A. J. : Ce sont deux Français qui ont créé le premier implant cérébral pour traiter certains symptômes de la maladie de Parkinson, on le raconte dans le livre. De nombreuses recherches sont en cours, aussi autour d’Alzheimer, ou pour augmenter les capacités cognitives. Neuralink n’est pas le seul, d’autres laboratoires, académiques et privés, y travaillent.

Empêcher Parkinson, Alzheimer ou toute autre maladie dégénérative est une perspective qui ne peut que nous réjouir. La vraie question est plutôt : que veut-on faire avec ces technologies ? Plus précisément, que veut faire Elon Musk ? J’ai du respect pour l’ingénieur Musk, que j’ai eu la chance d’écouter quand j’étais à Boston. Humainement, c’est autre chose, on le voit bien avec sa misogynie et son sexisme qu’il ne se prive pas de montrer sur Twitter (X). Personne ne connaît ses intentions, c’est ce qui m’inquiète le plus. Cela constitue l’un des ressorts de notre livre : l’utilisation d’une technologie à des fins politiques et géopolitiques, pour en faire une puissance cognitive capable de prendre le dessus sur les autres.

Que pensez-vous de la panique morale autour de ChatGPT et de l’intelligence artificielle en général ? Est-elle justifiée ?

A. J. : Ce type d’algorithmes existe depuis un moment. J’ai travaillé dessus chez Bloomberg. Google en avait développé ses propres versions en 2016-2017, etc. Ce qui est nouveau, c’est cette interface logicielle conversationnelle, et la décision d’OpenAI de la rendre publique.

Bien sûr, les opportunités, notamment dans le monde du travail, sont réelles, mais les menaces aussi. Par nature, cette interface ChatGPT constitue un problème : elle affiche des caractères anthropomorphiques, car elle donne l’impression de parler à un humain, c’est l’effet ELIZA. C’est de la manipulation cognitive. Ensuite, on ne connaît pas les bases de données sur lesquelles l’algorithme a été entraîné, sans parler de la propriété intellectuelle.

Mais OpenAI fait aussi partie de ceux qui ont signé cette lettre réclamant un moratoire sur le développement de l’IA. Cette lettre n’a aucun fondement scientifique. En revanche, elle a un fondement politique, et celui-ci est « long-termiste » et apocalyptique. Aucun scientifique ne peut corroborer cette vue. Cette posture nous éloigne des vrais problèmes. D’abord, la discrimination technologique, via des outils qui peuvent traiter différemment, et de manière injuste, certaines catégories de la population. Ensuite, ce qu’on appelle le « digital labour », entre autres l’exploitation de main-d'œuvre sous-rémunérée pour traiter de la data, dans des conditions parfois atroces, comme au Kenya ou en Inde. Enfin, l’impact écologique.

Les enjeux de société sont là, et il faut les résoudre. Nombreux sont les ingénieurs et les scientifiques (souvent des femmes) qui s’y attellent chaque jour – je pense à Joy Buolamwini, Kate Crawford, Timnit Gebru…

Les promoteurs de ce moratoire ne cherchent-ils pas une forme de sidération pour mieux asséner leur puissance technologique ?

A. J. : Un moratoire est inapplicable. Quelles sont les intentions de leurs signataires ? Je l’ignore. En revanche, il faut savoir lire entre les lignes. Sam Altman n’est pas un scientifique, mais un businessman. Si OpenAI avait une gouvernance algorithmique de qualité, ils auraient sans doute mieux réfléchi aux worst-case scenarios : cet effet ELIZA, l’approximation des réponses, etc. Ils ont choisi de passer outre, malgré ces risques parfaitement prévisibles.

Que penser des premières tentatives de régulation ? Faudrait-il une gouvernance mondiale de l’IA ?

A. J. : Des lois mondiales sont impossibles, les droits diffèrent, les Constitutions diffèrent, etc. Il s’agira d’accords, de traités. Cela étant, des textes peuvent exercer une influence hors de leur périmètre, comme avec le RGPD qui a inspiré le CCPA (California Consumer Privacy Act) et d’autres textes.

Mais légiférer sur l’intelligence artificielle est plus complexe que de le faire sur les données à caractère personnel, pour deux raisons : d’abord, l’algorithmique est une science plus abstraite, plus complexe et évoluant beaucoup plus vite. Ensuite, l’Europe, et la France en particulier, possède un historique législatif sur la data qu'elle n'a pas sur l’IA. Dès 1978, la loi Informatique et Libertés a posé ses jalons, étendus en 1995 pour les données transportées par Internet, pour aboutir plus tard au RGPD.

De nombreux amendements ont été soumis dans le cadre du projet d’IA Act européen, à la suite du déferlement des outils d’IA générative – une technologie qui n’est pas nouvelle. Cet « effet pansement » me fait dire que le législateur a pris du retard. Oui, il nous faut un IA Act, mais celui-ci doit être visionnaire. Pour le dire de façon directe, il doit avoir l’ambition d’encadrer le développement, la conception, l'utilisation des IA à horizon cinq ou dix ans, et pas de celles d’il y a cinq ans.

Le législateur doit s'entourer de scientifiques et d'ingénieurs. Pas seulement issus du public, et pas uniquement des hommes de plus de 60 ans. La représentativité, à tous points de vue, est essentielle. Un IA Act doit aussi protéger les libertés fondamentales, tout en ouvrant l’innovation, ce que fait très bien le RGPD. On le sait peu, mais le RGPD est un texte très libéral, capable de protéger les individus, tout en rendant possible la libre circulation des données personnelles entre pays membres de l’Union. C’est une possibilité peu exploitée, dont on entrevoit l’utilité si l’on repense par exemple à toutes ces applications anti-Covid développées à l’échelle nationale, sans aucune interopérabilité.

Le RGPD sait aussi faire la distinction claire entre la recherche, publique ou privée, et le développement industriel – c’est une bonne chose. Il ne faut pas que l’IA Act contraigne l’innovation, par cette absence de distinction.

Vous vous partagez entre la France et les États-Unis, quelles grandes différences voyez-vous quant à la façon d’aborder ces questions ?

A. J. : On s’imagine souvent les États-Unis comme un pays de cowboys, peu contraint par la loi. C’est un cliché loin de la vérité : ils travaillent aussi à leur IA Act, et, là-bas, les lois protègent très fortement les données de santé et les données financières – peut-être même plus qu’en Europe.

Mais quand il s’agit de protéger la souveraineté, leur pragmatisme est réel. Pour les données à caractère personnel, le texte américain prend en compte la taille de l’entreprise, via différents critères, pour juger de sa conformité au règlement. Cela encourage l’innovation. Autre exemple, la DARPA, cette agence de conduite et de financement de recherche privée et publique aux États-Unis, sous la direction du ministère de la Défense. L’Europe bénéficierait grandement d’une structure de ce type, pensée comme un véhicule de souveraineté. On l’oublie souvent, mais c’est la DARPA qui a permis à des sociétés telles que Google ou SpaceX d'exister.

Data et sport, la révolution, votre dernier ouvrage, coécrit avec Yannick Nyanga, traite de l’usage de la data dans le sport…

A. J. : Yannick Nyanga est un ami, ancien grand joueur de rugby, aujourd’hui entraîneur. Nos discussions nous ont donné envie d’écrire sur la data et le sport. Notre fil conducteur est d’expliquer pourquoi la data doit compléter, amplifier l’instinct et de l’intuition, et non s’y substituer.

Pour mieux révéler ce qui fait de nous des humains ?

A. J. : Exactement !

À LIRE
Amanda Sthers, Aurélie Jean, Résistance 2050, Les Éditions de L'Observatoire, 2023

Aurélie Jean, Yannick Nyanga, Data et sport, la révolution, Les Éditions de L'Observatoire, 2023

Carolina Tomaz

Journaliste, rédactrice en chef du Livre des Tendances de L'ADN. Computer Grrrl depuis 2000. J'écris sur les imaginaires qui changent, et les entreprises qui se transforment – parce que ça ne peut plus durer comme ça. Jamais trop de pastéis de nata.
commentaires

Participer à la conversation

Laisser un commentaire