Sam Altman avec des yeux bleu laser

Les dirigeants IA sont-ils anti-humains ? Les technocritiques pensent que oui

Après le long-termisme, l’accélérationnisme ou l’altruisme efficace, l’anti-humain est-elle la nouvelle école de pensée en vogue au sein de la Silicon Valley ? C’est l’hypothèse de certains observateurs.

Parmi toutes les choses un peu folles que les dirigeants de la tech ont pu prononcer ces dernières années, il semble que celle-ci ait touché une corde sensible de l’opinion publique. Le 20 février dernier, Sam Altman était l’invité d’un événement organisé par The Indian Express, en marge du sommet mondial de l’IA en Inde. Confronté à la question de l’empreinte énergétique de l’IA et des infrastructures nécessaires pour les faire fonctionner, Sam Altman contre-attaque. Certes, l’IA est énergivore, mais un humain l’est plus encore. « Il faut vingt ans de vie et toute la nourriture consommée pendant ce temps pour devenir intelligent. Et ce n’est pas tout : il a fallu l’évolution à grande échelle des cent milliards de personnes qui ont vécu, qui ont appris à ne pas se faire dévorer par des prédateurs et à comprendre la science, pour en arriver à te produire. Et ensuite, toi, tu as simplement bénéficié de tout cela. »

La vie humaine a-t-elle une valeur intrinsèque ?

Pour certains observateurs, la sortie de Sam Altman est une preuve de plus de l'hostilité qu'ont certains dirigeants de l’IA de l'humanité. « La vision anti-humaine de Sam Altman », titre sans ambiguïté Paris Marx, journaliste résolument techno-critique, dans sa newsletter Disconnect. « Il existe de nombreuses raisons de justifier la consommation d’énergie nécessaire pour permettre aux êtres humains de vivre et même de prospérer – à commencer par le simple fait que nous sommes effectivement en vie, et jusqu’à reconnaître la valeur intrinsèque de la vie humaine, qui mérite d’être préservée et de pouvoir s’épanouir », défend-il.

Même lecture du côté des plus mesurés The Atlantic et Irish Time. « Sam Altman perd pied avec l’humanité », titre le magazine américain. « Je pense qu'Altman exprime ici ses convictions, et, ce faisant, il révèle quelque chose d'essentiel sur sa vision du monde clairement anti-humaine, estime quant à lui le journaliste Mark O’Connell, auteur d'Aventures chez les transhumanistes, publié en 2017. En substance, il affirme que les humains sont beaucoup moins efficaces, en termes de besoins énergétiques et de production d'informations, que les modèles d'apprentissage profond tels que ChatGPT d'OpenAI. » Selon ce prisme, explique Mark O’Connell, « il est alors logique d'accorder la priorité [à l'IA] sur le plan économique ».

Chez d'autres dirigeants de la tech, cette préférence pour les machines s’affiche aussi. Ainsi de Paul Graham, mentor de Sam Altman, fondateur du Y Combinator, incubateur ultra-influent de la Silicon Valley que le PDG d'OpenAI a dirigé. Dans un tweet du 22 février 2026, Graham se réjouit que ses futurs lecteurs soient des IA « intelligentes et rationnelles » plutôt que des lecteurs humains « stupides et partiaux ». « Écris pour la génération de demain, lui répond un internaute, docteur en chimie computationnelle. Même si les lecteurs de demain sont des IA. »

Accélérationnisme, rationalisme…, anti-humanisme ?

L'anti-humanisme peut sembler exagéré, mais s’inscrit dans la lignée des philosophies populaires de la Silicon Valley et bien connues des lecteurs de L’ADN : transhumanisme, accélérationnisme, altruisme efficace… Des écoles de pensée regroupées sous l’acronyme TESCREAL, conceptualisé par la chercheuse spécialiste de l’éthique des IA, Timnut Gebru et le philosophe Émile P. Torres, spécialiste de l’eschatologie (il consacre un blog entier à la question de l’Apocalypse tech).

La journaliste tech indépendante Taylor Lorentz a mené l’enquête sur les ramifications de cette philosophie. Dans une vidéo de plus d’une heure et visionnée plus d’un demi-million de fois, sobrement intitulée « Les milliardaires de la tech nous veulent morts », elle décrypte cette croyance selon laquelle « les humains biologiques sont imparfaits et temporaires, et qu’un avenir posthumain dominé par l’intelligence artificielle générale (AGI) est à la fois inévitable et souhaitable ». Selon cette idéologie, « l’obsolescence humaine est présentée comme un progrès, tandis que des milliardaires comme Elon Musk, Sam Altman, Peter Thiel et Mark Zuckerberg se préparent à survivre à l’effondrement qu’ils contribuent à créer. »

Faut-il s’inquiéter des visions démiurgiques, qu’elles soient pro ou anti-humanistes, des dirigeants de la tech ? En 2023, alors que les principaux acteurs américains de l’IA signaient un moratoire pour mettre en pause les recherches en IA, la scientifique et entrepreneuse Aurélie Jean nous mettait en garde : « Les postures long-termistes et apocalyptiques nous éloignent des vrais enjeux de l'IA. » Reste que, si nous sommes à la veille d’une nouvelle révolution industrielle, on peut légitimement se demander : quelle vision de la société portent ses architectes ?

Discutez en temps réel, anonymement et en privé, avec une autre personne inspirée par cet article.

Viens on en parle !
le livre des tendances 2026
commentaires

Participer à la conversation

Laisser un commentaire