Paolo Benanti

Paolo Benanti, le moine qui forme le pape aux dernières avancées de l'IA

Paolo Benanti est un moine franciscain qui dénote parmi ses pairs. Versé en théologie et… en technologie, le prélat conseille les plus hautes instances du Saint-Siège – y compris le pape – sur les questions d’intelligence artificielle.

Sa thèse portait sur la figure du cyborg. Paolo Benanti est spécialiste en intelligence artificielle. Il se fend régulièrement de réflexions nourries sur la portée et le potentiel dystopique de l’intelligence artificielle dans des essais. L’homme est aussi rompu en ingénierie, en éthique… et en théologie. C’est que Paolo Benanti est moine et appartient à l’ordre des franciscains. Il a l’oreille de Monseigneur Paglia, le président de l’Académie pontificale pour la Vie et aussi du pape François qu’il conseille.

Depuis avril 2021, le Vatican est doté de la Fondation RenAIssance, une ONG dont la mission est d’encourager à une réflexion éthique de l’intelligence artificielle. Paolo Benanti en a pris la direction scientifique. À des (aspirants) prêtres et théologiens, il enseigne depuis quelques années l’éthique à l’aune des avancées technologiques. Depuis plus de deux ans, l’homme discute avec les dirigeants des plus grandes entreprises de la Big Tech. On lui doit – et ce n’est pas rien – l’Appel de Rome pour une éthique de l’intelligence artificielle dont la première version en février 2021 a été signée par IBM et Microsoft… avec le soutien et la présence du pape François.

Vous faites partie de l’ordre des franciscains. L’intelligence artificielle semble être un sujet bien profane. Comment en êtes-vous venu à l’étudier ?

Paolo Benanti : J’ai d’abord étudié l’ingénierie. Je voulais comprendre le monde. Puis j’ai rejoint l’ordre franciscain au sein duquel j’ai eu l’opportunité d’étudier la philosophie, la théologie, l’éthique. J’avais envie d’interroger l’intersection entre technologie et éthique. Je me suis d’abord intéressé à l’utilisation des nanotechnologies dans l’altération des systèmes biologiques et cognitifs. (Pablo Benanti a ainsi écrit sa thèse autour de la figure du cyborg, ndlr).

C’était en 2011. À l’époque, si vous me l’aviez demandé, je vous aurais probablement répondu que pour moi, les technologies les plus prometteuses étaient les NBIC qui augmentent par des médicaments les capacités cognitives des êtres humains – la mémoire, le sommeil ou la concentration.

Puis en 2012, l’IA est sortie de l’ « hiver » dans lequel elle se trouvait et a explosé. En quelques années, nous avons eu AlphaGo, puis les super-modèles tels que GPT-3 ou AlphaFold, qui sont éthiquement très discutables. GPT-3 représente une révolution en matière de linguistique, d’usage des langues, mais aussi de comment nous concevons le monde.

Vous allez, je crois, jusqu’à parler en matière d'IA de RenAIssance…

P. B. : Je vais essayer de vous l’expliquer simplement. La langue est un outil que nous avons développé en tant qu’espèce pour communiquer. Les mots que nous utilisons ne sont pas conformes à la réalité. Pourquoi nous disons « casa » et « house » pour désigner une maison en italien et en anglais est un mystère. La langue nous donne la capacité d’imaginer quelque chose qui n’est pas visible. Si je vous dis que je suis triste, ce n’est pas visible ; pourtant vous le comprenez.

L’éthique est aussi un outil qui rend visible l’invisible. S’il y a un bébé abandonné dans la rue, vous sentez que vous devez l’aider. De la même manière, la loi à travers le langage rend visible ce que nous ne voyons pas instinctivement. C’est toute la beauté de la chose. Nous avons inventé des outils qui rendent visibles l’invisible. Sauf qu’ils ont évolué avec le temps. Au XVème siècle [Gutenberg] invente l’impression du langage, ce qui a lancé en Europe la Renaissance. Cette évolution de la technologie qu’est le langage a changé en profondeur la société. Nous sommes désormais à l’aube d’une troisième évolution : celle du langage qui est « informatisé ». Il est « programmé » par des outils qui génèrent du crédible. Voyez les articles de presse produits par GPT-3. Et pourtant, on sait déjà que GPT-3 souffre d’hallucinations

Comment un outil peut-il souffrir d'hallucinations ?

P. B. : Eh bien, il arrive que GPT-3 imagine ce qui n’est pas réel. Les super-modèles sont extrêmement puissants et évolutifs. Ils sont basés sur 150 milliards de paramètres. C’est comme si GPT-3 était capable de travailler non plus avec une compétence, un langage spécifique, mais avec des archipels de langages. Il peut traduire ce que vous dites en un document Excel qui établit le budget de votre entreprise. Vous n’êtes pas comptable, mais GPT-3 fait le boulot. Le chaos n’est pas loin.

Nous devons nous interroger, comprendre ce que signifie le fait d’être humain à l’heure de ces technologies. L’Europe est un continent de traditions, celles de l’Église, de la Renaissance et des Lumières. Et je crois qu’en tant qu’Européens, nous avons un certain regard sur l’humanité et la technologie pour penser une « RenAIssance » .

Doit-on réfléchir à une IA éthique ou plutôt à une utilisation éthique de l’IA ?

P. B. : Les deux. Une technologie peut toujours être utilisée au bénéfice ou au détriment de chacun. L’histoire de la technologie est assez parlante. Prenez la ville de New York. Le Manhattan d’aujourd’hui est le fruit des idées politiques de l’urbaniste Robert Moses qui pensait que New York se porterait bien si seule la « meilleure » couche de la société pouvait accéder à la « meilleure » partie de la ville. Il n’y a donc eu aucune ligne de train construite pour Long Island ; aucun bus ne pouvait s’y rendre. Seuls les gens dotés de voitures le pouvaient. À savoir les nantis. De cette histoire, il faut comprendre que n’importe quelle technologie puissante est politique. Il n’y a pas d’infrastructure neutre. Nous avons donc besoin de ce que j’ai appelé les « algorethics » .

Qu’appelez-vous « algorethics » ?

P. B. : L’intelligence artificielle est comme une voiture qui aurait besoin d’un garde-fou ; les « algorethics » seraient faits pour rester sur la bonne voie. Nous devons ouvrir la boîte noire et discuter de comment l’IA modèle le pouvoir. Ça ne me semble pas déraisonnable d’imaginer un garde-fou éthique à l’heure où l’IA devient de plus en plus autonome. J’aime beaucoup cette idée de Lord Moulton (avocat anglais du début du XXème siècle, ndlr) qui disait que l’éthique est tout ce qui ne peut être réglé par la loi. Sur le Titanic, quelqu’un a dû crier de sauver les femmes et les enfants d’abord. Ça relève de l’éthique et non de la loi. En tant qu’Européens, nous avons une longue tradition éthique. Nous savons de par notre Histoire que nous avons besoin et de lois et d’éthique pour préserver ce que nous chérissons avant tout : la vie humaine.

En février 2020, plusieurs institutions publiques et entreprises ont signé l’Appel de Rome pour une intelligence artificielle éthique sur l’impulsion du pape François.

P. B. : Oui, l’appel a été signé par la FAO, le ministère italien pour l’innovation, mais aussi IBM et Microsoft. Depuis, il a été signé en mai 2022 à Abu Dhabi par des représentants des religions musulmane et juive.

En tant que professeur et que membre de cette initiative du Saint-Siège, mon désir n’est pas tant de présenter une solution qu’ouvrir une réflexion, inviter à une discussion. Ne serait-ce que parce que les technologies évoluent en permanence, il n’y a pas de solution définitive. Mais poser sur elles un regard éthique est un devoir ! À présent, nous aimerions travailler à ce que les universités du monde entier puissent signer cet appel afin que ceux qui conçoivent les outils de demain puissent créer à travers ces « lunettes éthiques ».

Pensez-vous qu’il y a urgence ?

P. B. : Ces modèles ont atteint des degrés de précision sans commune mesure avec les autres technologies de pointe. Certaines décisions humaines risquent d’être substituées par ces outils. C’est de cela que vient la nécessité de réfléchir à un cadre éthique. Nous sommes en train de vivre une révolution. Lorsque la machine a été capable de se substituer aux muscles des êtres humains, ça a donné la révolution industrielle. Désormais, elle s’attaque au cerveau.

Face à l’IA, nous n’avons pas à craindre un Armageddon comme dans Terminator. En revanche, elle pourrait signer la fin des emplois des cols blancs. Aujourd’hui, pour quelques euros, vous pouvez acheter une calculatrice capable de faire des racines carrées. Pour se procurer une main robotique capable d’ouvrir une enveloppe, il faut dépenser quelques centaines de milliers d’euros.

À la Fondation RenAIssance, nous avons entamé des recherches autour des statuts de réfugiés accordés par des algorithmes. C’est extrêmement dangereux. D’ordinaire, ce sont des femmes ou des hommes qui écoutent l’histoire d’autres femmes et hommes. Utiliser un algorithme dans ce cas, est-ce vraiment la manière dont nous souhaitons aborder la fragilité humaine, est-ce toute la valeur que nous souhaitons donner aux autres êtres humains ? C’est désormais une machine qui peut décider du sort d’un être humain transformé et réduit à des données. C’est un changement social profond. Nous venons après la génération de ceux qui face au carbone, n’ont pas pensé durabilité. Voulons-nous être la génération qui n’aura pas même interrogé sérieusement la technologie ?

Cette interview a été réalisée pour la revue 31 de L'ADN. Si vous voulez le dossier complet... votre rêve est à portée de clic, et c'est par ici que cela se passe.

commentaires

Participer à la conversation

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.