Sam-Altman-derriere-rideau

Trop fermée, trop rapide, trop dangereuse… OpenAI est critiquée de toute part

© TechCrunch via Wikimedia

Depuis la sortie de GPT4, OpenAI est accusée par divers acteurs et chercheurs spécialistes de l'IA d'avoir lancé une course hors de contrôle derrière les portes bien fermées de son laboratoire.

Mettre l’intelligence artificielle sur pause. C’est ce que réclament 1 124 universitaires, entrepreneurs et directeurs d'institut dans une tribune publiée le 29 mars. « Nous appelons tous les laboratoires d’intelligences artificielles à mettre en pause l’entraînement de systèmes d’IA plus puissants que GPT4 (modèle développé par OpenAI) pour au moins six mois », écrivent-ils. Ils suggèrent de profiter de cette pause pour réfléchir aux conséquences de ces nouvelles générations d’intelligences artificielles et de penser à des protocoles pour contrôler et auditer ces systèmes. 

Même Elon n’est pas content 

Parmi les signataires, on trouve de grosses pointures de la recherche en intelligence artificielle comme Yoshua Bengio, chercheur canadien considéré comme l’un des pères du deep learning, ou Gary Marcus, spécialiste des grands modèles de langage. On trouve aussi l’historien star Yuval Noah Harari, Elon Musk et le cofondateur d’Apple, Steve Wozniak. 

La tribune a été publiée sur le site de Future of Life et ce n’est pas anodin. Cette organisation promeut les thèses du long-termisme, une philosophie qui séduit de nombreuses têtes pensantes de la tech (dont Elon Musk). Ce courant de pensée défend l’idée qu’il faut à tout prix permettre à l’humanité de continuer son évolution sur plusieurs milliards d’années, en se préparant aux futurs risques existentiels (X risks). Parmi ceux-ci : l'avènement d’une intelligence artificielle générale (AGI) – dont les capacités seraient supérieures à celles des humains – qui deviendrait ingérable, et donc potentiellement dangereuse. 

Une course hors de contrôle

« Les laboratoires se sont enfermés pour participer à une course hors de contrôle afin de développer et déployer des esprits numériques – que personne ni même leurs créateurs ne peuvent comprendre, prédire, ou contrôler de manière sûre », pointent-ils. 

Ce n’est pas la première fois que des experts et observateurs du secteur s’alarment depuis la sortie de GPT-4 le 14 mars dernier. GPT4 – qui peut être testé par les utilisateurs premium de ChatGPT – est le nouveau grand modèle de langage d’OpenAI. Comme ses prédécesseurs GPT3.5 et GPT3, il est capable de générer du texte en prédisant le mot suivant dans une phrase. Il est censé avoir un raisonnement plus logique, écrire moins d’erreurs que la précédente version du modèle. OpenAI avance qu’il est également capable de lire des images, en plus du texte. Mais cette fonctionnalité n’est pour le moment pas testable.  

Les observateurs du secteur ont notamment beaucoup critiqué le manque de transparence d’OpenAI sur le fonctionnement de GPT4. 

« OpenAI nous a trompés »

« OpenAI nous a trompés », s’insurgeait notamment Alberto Romero, auteur d’une newsletter reconnue sur l’intelligence artificielle. Son thread Twitter, vu près d’un million de fois, dénonce la politique de plus en plus fermée d’OpenAI. Il estime que la société a trahi son discours d’origine. Le problème, dit-il, c’est que l’entreprise est ambivalente. Son PDG, Sam Altman, et son équipe, s’inquiètent en interviews des conséquences de ces outils sur la désinformation et la cybersécurité, préviennent leurs concurrents de bien contrôler les IA qu’ils mettent sur le marché, sans dire comment eux-mêmes contrôlent leurs modèles. Ils se disent très inquiets tout en ne laissant aucun expert extérieur, ni spécialiste de l’éthique de l’IA évaluer leurs modèles. 

Elon Musk, qui a fondé l’entreprise avant de s’en détacher, s’inquiète lui aussi pour les mêmes raisons. « OpenAI a été créée en tant qu'entreprise à but non lucratif et à code source ouvert (c'est pourquoi je l'ai appelée "Open" AI) pour servir de contrepoids à Google, mais elle est maintenant devenue une entreprise à code source fermé et à profit maximum, contrôlée de fait par Microsoft. Ce n'est pas du tout ce que j'avais prévu », a-t-il déclaré.

Lorsqu’OpenAI a été créée il y a 8 ans, il s’agissait effectivement d’une organisation à but non lucratif, dont l’objectif était de développer des modèles open source afin de construire une intelligence artificielle qui soit bénéfique pour l’ensemble de l'humanité. L’entreprise a peu à peu modifié son modèle. Elle est devenue une entreprise à profit limitée, adossée à une fondation. Quelques-uns de ces développements mineurs sont encore partagés en open source, mais le cœur de son travail est, lui, bien protégé. « La plupart des informations sont diffusées via des posts de blogs pas des articles scientifiques corrigés par des pairs », souligne Thierry Poibeau, linguiste et directeur de recherche au CNRS. 

Si nous connaissons quelques données techniques sur GPT-3 (son nombre de paramètres par exemple) et ChatGPT, il n’en est rien pour GPT-4. 

Le mystère GPT4

Dans son long post de blog présentant le modèle, OpenAI vante les performances de GPT-4, résultats d’évaluation à l’appui. Mais la société donne très peu d’informations sur l’architecture du modèle, la manière dont il a été entraîné, ni sur quelles bases de données. L’entreprise ne donne que cette description vague : « Les données sont un corpus de textes issus du Web, qui inclut des solutions correctes et incorrectes à des problèmes de mathématiques, des raisonnements faibles et forts, des déclarations contradictoires et pertinentes, des représentations de diverses idéologies et idées. » 

Dans ce même article, OpenAI donne deux raisons à ce manque de transparence : la compétitivité croissante du secteur (ce qui confirme qu’OpenAI est bien une entreprise à but lucratif) et la sécurité. 

Sam Altman, PDG d’OpenAI, qui n’est pas avare en interviews, agite souvent le spectre de la peur pour justifier les secrets bien gardés de son entreprise. Il s’est dit « effrayé » par l’invention de son entreprise. Interrogé sur son manque de transparence par le NY Magazine, il répond ceci : « Nous avons pris de nombreuses décisions au fil des ans au nom de la sécurité qui ont été largement ridiculisées à l'époque, mais que les gens ont fini par apprécier plus tard. Même dans les premières versions de GPT, lorsque nous parlions de publier progressivement les modèles parce que nous voulions que les gens aient le temps de s'adapter, nous avons été ridiculisés pour cela (...). Aimeriez-vous que nous appuyions sur un bouton, que nous ouvrions la source de GPT-4 et que nous mettions ces modèles en libre-service ? »

Encore une fois, Sam Altman joue les parents responsables, alors qu’en parallèle son entreprise est à l’origine de cette course effrénée à l’IA la plus puissante.

Le problème ce n’est pas que l’IA est trop puissante, mais qu'elle est trop opaque 

Des chercheurs plus pragmatiques, trouvent que cet argumentaire d’une intelligence artificielle pouvant surpasser l’homme et ne devant pas être mise entre les mains du dernier quidam n’est pas tenable. Pour eux, l’intelligence artificielle générale est un fantasme de tech bros, qui alimente la hype autour de l’IA et sert surtout à vendre des services. C’est notamment l’idée défendue par Emily Bender et Timnit Gebru. Ces deux chercheuses sont autrices d’un article souvent cité dans le milieu, et qui a causé le renvoi de Timnit Gebru de Google où elle exerçait en tant que chercheuse spécialiste de l’éthique de l’IA. Elles y comparent les modèles comme GPT à des perroquets stochastiques, des machines statistiques uniquement capables de pasticher le langage des humains. Mais elles alertent aussi sur les dangers de ces modèles. Pas parce qu’ils sont trop puissants, mais parce qu’ils s’appuient sur des bases de données forcément biaisées. 

Dans un récent thread, Emily Bender énumère les risques de ces modèles : la concentration des pouvoirs dans les mains de quelques personnes, la reproduction de systèmes d’oppression, des conséquences néfastes pour notre système d’information, et sur la planète (à cause d’une utilisation abusive des sources d’énergie).

Ne pas connaître les données d’apprentissage de GPT4 est, à ce titre, d’autant plus problématique, car celles-ci peuvent comporter des biais. « Les choix des données d'apprentissage reflètent des biais historiques et peuvent infliger toutes sortes de préjudices, explique sur Twitter Ben Schmidt, historien spécialiste des données et fondateur de l’entreprise Nomic AI. (...) Pour prendre des décisions éclairées sur les domaines dans lesquels un modèle ne devrait pas être utilisé, nous devons savoir quels types de biais sont intégrés. La stratégie d'OpenAI rend cela impossible. Les larges modèles de langage sont de fait imprévisibles et impénétrables, selon ce spécialiste des données. « Et maintenant, OpenAI est en train de créer une norme pour étendre ce mystère encore plus loin », estime-t-il. 

Marine Protais

À la rubrique "Tech à suivre" de L'ADN depuis 2019. J'écris sur notre rapport ambigu au numérique, les bizarreries produites par les intelligences artificielles et les biotechnologies.
commentaires

Participer à la conversation

  1. Avatar GUILLAUME dit :

    Emily Bender et Timnit Gebru ont bien raison ce que l'on appelle intelligence artificielle n'est que langage de perroquet.
    Lorsque l'IA sera transférée sur un ordinateur quantique alors il faudra seulement à ce moment là être vigilant quand à l'apparition du point de singularite (ou pas...)

Laisser un commentaire