openAI

OpenAI : la folle histoire d'un nouvel acteur emblématique de la Silicon Valley

© @thibaudz

Qui est OpenAI ? L'entreprise aux avant-postes de l'intelligence artificielle générative, ce nouvel âge de l'IA. GPT3 et DALL·E, c'est elle. Bref, OpenAI est l'un des nouveaux géants de la tech qu'il faut suivre de près.

Juillet 2015, Rosewood Hotel, Californie du nord. C’est dans la salle privatisée d’un grand hôtel de la région que se réunissent discrètement, en cette soirée d’été, certains des hommes d’affaires les plus en vue de la tech américaine. Ilya Sutskever qui a révolutionné le secteur du deep learning en 2012, Greg Brockman le fondateur de Stripe, société de paiements numériques, Sam Altman, à la direction d'Y Combinator, l’incubateur de Dropbox, Coinbase, Airbnb... entre autres. Sam Altman n’a pas eu de difficulté à convaincre son vieil ami Elon Musk de se joindre au dîner. Si celui-ci redoute depuis toujours que les robots remplacent bientôt l’espèce humaine, il est tout aussi convaincu que l’intelligence artificielle sera la grande révolution du XXIe siècle.

OpenAI, ou l'ambition d'une IA transparente et ouverte

Altman a une idée précise : convaincre chacun de ses invités présents, à commencer par la dizaine d’ingénieurs et de scientifiques travaillant pour l’un des GAFAM, de quitter son boulot pour le rejoindre dans le laboratoire de recherche en Intelligence Artificielle qu’il est en train de mettre en place avec Musk, Brockman et quelques autres. Le projet porte le nom prophétique d'« OpenAI ». Son projet ? Créer une IA « transparente, et ouverte à toutes et à tous », explique Altman à son auditoire. « Notre objectif est de faire progresser l’intelligence numérique de la manière la plus susceptible de bénéficier à l’humanité dans son ensemble ». Des dizaines de millions de dollars auraient déjà été levés.

Le moment est à la fois propice et délicat. En 2015, des progrès extraordinaires ont déjà été faits dans l’I.A qui dépasse les espérances les plus folles des adeptes du transhumanisme. Conscients du potentiel d’un marché sans limite, les géants de la tech ont acquis à tour de bras start-up et ingénieurs du secteur, tandis que des assistants vocaux intelligents — Siri, Alexa — ont envahi les foyers et téléphones portables du monde entier. De l’autre, les premières révélations sur les usages toxiques de Facebook, Google et autres GAFAM, notamment l’aptitude de leurs algorithmes « intelligents » à nous dérober nos informations les plus personnelles pour les exploiter contre notre gré, rendent le public de plus en plus critique à leur égard. Des scientifiques partagent enfin l’appréhension de Musk, que l’IA devienne une véritable menace pour l’homme. Elle pourrait même, d’après l’astrophysicien Stephen Hawking, « signifier la fin de la race humaine ». 

Drôle de projet : une ONG pour l'IA

La singularité d’OpenAI tient dans sa philosophie : organisation à but non lucratif, la structure veut explorer l’avenir de l’IA « tout en prenant les mesures indispensables afin d’éviter les mésusages de ce qu’elle est sur le point d’inventer », écrivent ses fondateurs dans une charte publique qui énonce les principes fondamentaux de la nouvelle organisation. Là où Google, Facebook dominent le monde grâce à des algorithmes opaques à code source fermés, eux promettent de « partager librement leurs recherches et codes, sans chercher à en tirer profit ». Il s’agit, via une organisation à but non lucratif, de créer une I.A « à visage humain, qui pourrait avoir des effets révolutionnaires dans les domaines par exemple de la santé, du changement climatique, ou encore de l’éducation ». Des dix chercheurs approchés ce soir-là neuf choisiront de renoncer aux augmentations de salaires mirobolantes que leur proposent leurs employeurs afin de rejoindre l’aventure.  « À cette époque, le monde entier regardait OpenAI avec fascination », se souvient Cade Metz dans Wired. Et peu importe que Musk, craignant le conflit d’intérêts, ait décidé de rester à l’arrière-plan du grand projet. Pendant quelques années, toute la Silicon Valley s’interroge sur ce qui se trame dans le vieil immeuble du centre San Francisco, où Sam Altman et ses associés se sont installés.

Et puis, changement de contexte et de programme. En février 2019, l’organisation annonce la mise au point d’un « nouveau modèle de langage ultra-performant », tout en précisant que « cette technologie pourrait être dangereuse ». GPT-2 (pour « generative pre-training transformer ») est un générateur de texte qui assimile les mots reçus et en détermine la suite la plus logique, qu'elle retransmet dans le même style. Son « intelligence » repose sur sa capacité à s’entraîner sans cesse, sur un très grand nombre de données, celles que propose l’Internet, afin de s’autocorriger et d’apprendre en quelque sorte par lui-même. Il s’avère si performant qu'il est difficile de faire la différence avec un texte écrit par un être humain. Le fameux « pari de Turing », selon lequel un ordinateur pourrait un jour faire exactement la même chose que les hommes, semble sur le point d’être remporté. Si le logiciel était utilisé avec une intention malveillante, s’inquiète ceci dit OpenAI, il pourrait générer des infox, spams ou textes complotistes très crédibles. La structure préfère donc, dans un premier temps, ne pas rendre public le code source du programme. Certains s’offusquent de cette décision qui va à l’encontre de la « transparence » mise en exergue dans la charte. D’autant plus que dans la foulée est annoncé le lancement d’OpenAI LP, une entreprise « à profit plafonné » certes mais qui, comme les autres business du secteur, fera des bénéfices et aura des investisseurs. Microsoft est le premier d’entre eux, qui investit un milliard de dollars dans la société. « OpenAI n’est pas si ouvert que cela », ironise l’analyste Alberto Romero dans un article assassin : « Comment OpenAI a vendu son âme pour un milliard » Communiquant scientifique d’OpenAI, Andrew Mayne justifie à l’ADN ce virement de bord en mettant en avant les « coûts gigantesques nécessaires à l’avancée des recherches ». L’entreprise a besoin de faire fonctionner ses modèles à grande échelle, elle construit pour cela des giga ordinateurs dans l’Iowa, où ses « réseaux de neurones convolutifs » traitent, 24h/24, des milliards de données.

« La grande majorité du financement est consacrée aux capacités technologiques » précise aussi Mayne, qui rappelle qu’OpenAI LP, avec à peine deux cents employés, n’a jamais grossi de manière significative. « Nous avons l’intention de rester une petite entreprise agile, qui peut prendre des décisions efficaces grâce à une quantité folle de ressources informatiques ». Fin mai 2020, OpenAI annonce la sortie de ce qui est considéré aujourd’hui comme son chef-d’œuvre : GPT-3. Tandis que GPT-2 s’est entraîné sur « seulement » 1,5 milliard de paramètres spécifiques, cette nouvelle génération de programmes en prend en compte 175 milliards, et s’entraîne sur 700 gigaoctets de données, tirées de l’ensemble du Web ainsi que de nombreux e-books. Les résultats sont sidérants, qui propulsent selon l’avis unanime des critiques GPT-3 en « modèle de langage entraîné le plus puissant au monde », loin devant ses concurrents développés par Google ou Facebook.

L’invention ne fait pourtant pas que des émules. Avec un tel niveau de compréhension et d’intelligence, elle pourrait à terme rendre obsolètes plusieurs professions — juristes, journalistes, service clients dont le métier est de traiter des données. Même des informaticiens s’inquiètent pour leur avenir quand, quelques mois après la mise en ligne de GPT-3, l’équipe OpenAI affirme que le réseau neuronal a, sans qu’on le lui ait demandé, développé des compétences étonnantes pour écrire des logiciels informatiques. Le Web étant rempli d’innombrables pages qui incluent des exemples de programmation informatique, GPT-3 a effectivement appris à programmer. OpenAI peaufine bientôt cette compétence en lançant une interface conçue par les programmateurs, baptisée Codex. D’autres outils viennent compléter la gamme de produits proposés par OpenAI comme l’impressionnant Dall-E,  une version de GPT-3 qui génère des images complexes à partir de mots courants (le « langage naturel », disent les informaticiens). En mars 2021, nouveau coup de théâtre : une équipe d’OpenAI affirme avoir « découvert des neurones multimodaux dans le logiciel d’apprentissage profond ». Les neurones multimodaux sont ce type de neurones qui, dans le cerveau humain, s’activent en réponse à des catégories ou des concepts généraux. Le programme aurait ainsi, à force de s’entraîner et de se corriger sans cesse, imité l’une des activités les plus subtiles de notre cogito. Activé par le concept général d’araignées, le neurone en question est baptisé « neurone Spider-Man », parce qu’il aurait été activé, précise l’équipe de chercheurs, non seulement par des images d’araignées, mais aussi par des Spider-Men illustrés de bandes dessinées et des photos de personnes en costumes de Spider-Man.

Ce qui est de fait fascinant avec OpenAI, et explique en partie son succès, c’est sa capacité à révéler ses recherches au compte-goutte, et à les mettre en scène comme de véritables découvertes scientifiques majeures. « Du marketing intelligent »[1] fustigent ses détracteurs. Dans un article très discuté, publié l’année dernière dans une revue scientifique, l’universitaire Timnit Gebru affirmait que GPT-3 et consorts ne seraient que des « perroquets stochastiques », qui synthétiseraient et régurgiteraient des choses déjà connues. De nombreux informaticiens déplorent aussi le choix qu’a fait la compagnie de ne pas divulguer ses avancées en open source, comme la majorité des programmateurs le fait. L’entreprise reste de fait très opaque, et n’a pas souhaité nous communiquer ni son chiffre d’affaires, ni son capital, ni le salaire de ses employés. Elle choisit sans doute d’entretenir l’aura de mystère qui l’entoure, afin d’alimenter son mythe.

Des utilisateurs ont aussi révélé de nombreux bugs, préoccupants dans un certain nombre de contextes. Une start-up française qui a testé GPT-3 en tant que patient, dans une visée médicale, s’est ainsi vu conseillé par la machine de se suicider. Pour ma part, ayant pu avoir accès à une version « béta » (en me faisant passer pour un codeur), je n’ai pas été impressionné outre mesure. D’autant qu’après une heure de « test », j’étais redirigé vers une page du site où l’on me demandait ma carte bleue pour continuer. Reste enfin le problème principal : la machine s’entraînant sur des données en libre accès sur Internet, elle relaye de fait, amplifie et invente même parfois des fake news (voir notre entretien avec l’auteur-réalisateur Simon). N'ayant aucune forme de « conscience », elle peut répéter par exemple une théorie raciste si elle l’a lue quelque part, sans comprendre son caractère problématique. Pour lutter contre ce qu’elle nomme ce « potentiel de toxicité », OpenAI lançait en juin dernier PALMS, « Processus d’adaptation des modèles linguistiques à la société ».  Cette technique implique l’intervention de l’homme, dès que l’on touche à un certain nombre de sujets sensibles, sur lesquels l’algorithme devra être emmené à rectifier le tir. Elon Musk peut être rassuré : on est encore loin du pari de Turing.

commentaires

Participer à la conversation

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.