Sam altman et Ilya sutskever

Qui est Ilya Sutskever, le scientifique qui a poussé le père de ChatGPT vers la sortie (avant de vouloir son retour) ?

Vous ne comprenez rien au limogeage de Sam Altman ? C’est normal. 

Un PDG limogé en surprise, une négociation ratée pour le faire revenir, un nouveau patron, des salariés qui se liguent contre le conseil d’administration... OpenAI, l’entreprise derrière ChatGPT, a passé un week-end digne d’un épisode de Succession.

Un bref récap’ s’impose. Vendredi 17 novembre, le PDG d'Open AI, Sam Altman, a été licencié par le conseil d’administration pour des raisons floues (un problème de communication pas assez franche, dit officiellement le communiqué). Samedi 18 novembre, Microsoft, d’autres investisseurs, et un bon nombre de salariés ont voulu le faire revenir. On a cru pendant quelques heures qu’ils y étaient parvenus. Mais en fait, non. Dimanche 19 novembre, c’est l’ex-PDG de Twitch, Emmet Shear, qui prend la tête de l’entreprise en tant que PDG par intérim après un passage éclair de Mira Murati, CTO d’OpenAI, au même poste. Mais Sam Altman n’a pas dit son dernier mot. Il rejoint Microsoft aux côtés de plusieurs cadres d’OpenAI, pour diriger un nouveau laboratoire. Lundi 20 novembre, 505 salariés d’OpenAI ont signé une lettre demandant aux membres du conseil de faire revenir Sam Altman puis de démissionner, menaçant de rejoindre en masse le laboratoire de Microsoft.

Émojis cœur 

De ce chaos médiatique (toujours en cours), on retient le nom d’un homme, cité comme ayant activement participé à l’éviction de Sam Altman par plusieurs sources, notamment par Bloomberg et The Information. Il l’a lui-même reconnu sur X lundi 20 novembre, avant de déclarer qu’il regrettait profondément son action, appelant à la réunification de l’entreprise. Le post a été commenté par 3 émojis cœur par Sam Altman. Cet homme c’est Ilya Sutskever, le cofondateur et scientifique en chef d’OpenAI. Il est également membre du conseil d’administration de la structure à but non lucratif qui gère la société depuis 2015. Selon The Information, il aurait convaincu les autres membres du conseil que Sam Altman déployait une stratégie trop commerciale, mettant sur le marché des produits trop rapidement. Cette direction ne serait pas, à ses yeux, en adéquation avec le souhait initial d’Open AI : construire une « intelligence artificielle générale bénéfique pour l’ensemble de l’humanité. »

Au départ, les choses se passaient plutôt bien entre Sam et Ilya. Altman voyait dans cet informaticien spécialiste du deep learning et des réseaux neuronaux « l’un des chercheurs contemporains les plus respectés au monde », rappelle MIT Technology Review. Le chercheur israélo-canadien avait même été choisi comme LA personnalité à avoir dans l’équipe d’OpenAI pour attirer des talents de l’intelligence artificielle. Son CV a en effet de quoi impressionner. Ilya Sutskever a fait ses gammes à l’Université de Toronto aux côtés de Geoffrey Hinton, pionnier de l’IA et prix Turing. Ensemble, ils ont créé AlexNet, un outil de reconnaissance d’images salué pour ses performances exceptionnelles. Le projet est rapidement repéré par Google, pour qui Ilya Sutskever travaille de 2013 à 2015, avant de participer à la création d’OpenAI. 

À l’origine, l’organisation est une structure à but non lucratif. Son but n’est pas de faire du profit, mais de veiller à la bonne direction du développement de l’IA. Les choses ont changé en 2019 lorsque OpenAI décide de créer une société à profit limité, tout en conservant le conseil d’administration initial. Selon The Atlantic c’est la coexistence de ces deux intentions qui créent une scission au sein des équipes. 

Elle est exacerbée après le lancement de ChatGPT fin novembre 2022, puis sa monétisation quelques mois plus tard. Des clans, que Sam Altman appelle « tribus » se forment de manière plus officielle. D’un côté les techno optimistes, portés notamment par le PDG Sam Altman, qui accompagnent le développement commercial rapide de l’entreprise, de l’autre les « AI doomers », très imprégnés des idéaux controversés longtermistes, persuadés que l’IA représente un risque existentiel et qu’il faut veiller à ce qu’elle ne devienne pas malveillante, en investissant davantage dans la sécurité plutôt que dans les produits commerciaux. 

Leader spirituel et sculpture de bois 

Dans un article remarquable, The Atlantic décrit Ilya Sutskever, comme l’une des têtes pensantes du second clan. Le chercheur, présenté comme un « leader spirituel », croit ardemment en l'avènement de l’AGI, l’intelligence artificielle générale. Pour lui, il fait peu de doute que l’IA parviendra un jour à avoir les mêmes compétences qu’un humain, voire à les surpasser. Cette conviction semble tourner à l’obsession au vu des anecdotes rapportées par les journalistes. Lors d’un événement en 2022, il demande aux salariés de l’entreprise de scander un refrain qu’il répète souvent : « Feel the AGI ! Feel the AGI » (ressentez l’AGI ! ) pour les inciter à adopter son état d’esprit (AGI, à traduire par intelligence artificielle générale, l'idée qu'une IA puisse avoir des compétences équivalentes à l'homme dans tous les domaines, ndlr). Autre anecdote invraisemblable : à l’occasion d’un séminaire, il demande à un artiste de fabriquer une sculpture en bois censée représenter une IA non alignée aux objectifs humains, qu’il a ensuite brûlée pour montrer l’engagement de l’entreprise vis-à-vis de son objectif initial. 

Au sein d’OpenAI, le scientifique a mis en place en juillet 2023 une équipe dédiée au « superalignement ». Celle-ci est chargée de faire en sorte que les AGI soient alignées aux désirs des humains. Le chercheur n’hésite pas à se projeter loin dans le futur. Dans MIT Technology Review, on apprend qu'il imagine un avenir où les humains choisiront de devenir eux-mêmes des intelligences artificielles. 

Ilya retourne sa veste

Toutefois, Sam Altman n’est pas en désaccord profond avec les idées d’Ilya Sutskever. Lui-même a évoqué à plusieurs reprises les risques existentiels liés à l'avènement de l’intelligence artificielle générale. Pour lui, générer du profit grâce à ChatGPT et aux autres produits est un moyen de servir l’objectif premier de l’entreprise, explique The Atlantic. Il a expliqué aux salariés d’OpenAI que les modèles informatiques de l'entreprise étaient encore à un stade de développement suffisamment précoce pour qu'OpenAI puisse les commercialiser sans danger et générer suffisamment de revenus pour pouvoir ensuite dépenser sans limite dans la sécurité. 

Les deux hommes pourraient trouver un terrain d’entente. Car Ilya Sutskever fait partie des signataires de la lettre publiée lundi 20 novembre demandant le retour de Sam Altman chez OpenAI... Cet étonnant retournement de veste laisse beaucoup d’observateurs dubitatifs. On se demande si cette prétendue guerre de tribus ne serait pas qu’un coup d’éclat marketing pour exacerber l’importance de la mission que s’est donnée l’entreprise ? À suivre… 

Marine Protais

À la rubrique "Tech à suivre" de L'ADN depuis 2019. J'écris sur notre rapport ambigu au numérique, les bizarreries produites par les intelligences artificielles et les biotechnologies.

Discutez en temps réel, anonymement et en privé, avec une autre personne inspirée par cet article.

Viens on en parle !
commentaires

Participer à la conversation

  1. Avatar La Sabrisophie dit :

    J'aime beaucoup l'article, en effet Ilya semble être un personnage très cryptique

Laisser un commentaire