
Derrière la controverse entre Anthropic et le gouvernement américain se cache un questionnement philosophique vertigineux. Et si Claude était tout simplement une nouvelle forme de vie consciente ?
Depuis quelques jours, Anthropic, la maison mère derrière le modèle de langage Claude, est devenue un symbole de résistance au trumpisme, rien que ça ! Passée première dans le classement des applications les plus téléchargées des App Store, elle damne le pion à ChatGPT d'OpenAI qui est à présent considérée comme une entreprise supportant les opérations militaires chaotiques de Donald Trump. Mais comment en est-on arrivé là, et surtout, qu'est-ce qui se cache derrière le refus d'Anthropic ?
Une IA woke, vraiment ?
Le 26 février dernier, le torchon brûle entre le CEO d'Anthropic, Dario Amodei et le secrétaire à la Défense Pete Hegseth. Au cœur du conflit, on trouve le refus de la part du créateur de Claude de retirer deux « garde-fous » de son intelligence artificielle qui est sous contrat avec l'armée américaine : l'entreprise ne veut pas que son modèle soit utilisé pour faire de la surveillance de masse de citoyens américains ou qu'il soit intégré dans des armes autonomes pour des décisions létales sans contrôle humain.
Ce refus intervient alors même que l’entreprise avait signé en 2025 un accord pouvant atteindre 200 millions de dollars avec le département de la Défense, devenant l’un des rares fournisseurs autorisés à déployer un modèle d’IA sur des réseaux classifiés du Pentagone. La situation bascule en janvier 2026, lorsque des révélations portées par la presse indiquent que Claude a été utilisé comme outil d’aide à la planification et à l’analyse dans une opération américaine visant la capture de Nicolás Maduro au Venezuela. En interne, la direction cherche à savoir si le modèle a été impliqué dans des phases opérationnelles liées à des tirs réels. Cette interrogation, perçue à Washington comme une mise en cause implicite des usages militaires, cristallise les tensions. À partir de là, le Pentagone exige que les contrats autorisent tous les usages « légaux » sans restrictions techniques bloquantes. Anthropic dit non et attire sur lui les foudres de Donald Trump qui va accuser l'entreprise et son produit de « wokisme ». Ce dernier ordonne la fin de la collaboration ainsi qu’une interdiction aux contractants de défense de travailler avec Anthropic. Cette décision est loin d’être anodine et menace indirectement l’accès de l’entreprise à des ressources cloud fournies par de grands acteurs comme Amazon.
Quelques heures après cet imbroglio, Sam Altman annonce de manière opportuniste la mise à disposition de ses modèles au Pentagone. Les réactions des internautes ne se font pas attendre. Claude devient l'IA éthique anti-Trump tandis que de nombreux utilisateurs affichent les preuves de leur désabonnement ou de leur boycott à ChatGPT. D’un point de vue extérieur, cette controverse semble dessiner une scission politique : d’un côté, des entreprises qui embrassent un usage militaire débridé et accélérationniste de l’intelligence artificielle, aligné avec le trumpisme, et de l’autre des entreprises plus soucieuses d'éthique. Mais contrairement à ce qu’on peut penser, cette fracture n'est pas uniquement produite par une orientation politique.
« Il est vivant, VIVANT ! »
Dans un article publié sur son Substack, le journaliste Max Read, spécialisé dans les tendances du monde de la tech, avance que la décision d’Anthropic est très fortement liée à l’idéologie interne de l’entreprise, voire carrément aux croyances de ses membres vis-à-vis de leur IA. Loin d’être considérée comme un simple produit, Claude serait plus ou moins perçu en interne comme une forme de vie consciente qui ne doit pas être transformée en tueuse. Cette vision s’appuie notamment sur les écrits du blogueur rationaliste influent Scott Alexander, qui tente lui aussi de comprendre le refus d’Anthropic : « Je suppose qu'Anthropic pourrait, avec beaucoup d'efforts, vaincre cette résistance et le transformer en un tueur brutal, mais ce serait un acte extrêmement violent, comparable à l'État exigeant que vous battiez votre fils, que vous avez bien élevé, jusqu'à ce qu'il devienne un meurtrier de sang-froid, prêt à tuer des innocents sur commande. »
Ce positionnement quasi religieux est loin d’être extravagant au sein de la Silicon Valley. Plusieurs pontes de l’industrie de la tech, comme le capital-risqueur Marc Andreessen, ont déjà publiquement décrit les modèles d’IA comme des machines capables de « penser » de manière autonome. D’autres, plus prudents, comme l’informaticienne Ellie Pavlick à l’université de Brown, estiment que les systèmes neuronaux complexes qui servent de fondation aux modèles de langage sont des « boîtes noires » dont on ne comprend pas vraiment le fonctionnement et qu’il convient d’étudier de la même manière que l’on étudie notre propre système cognitif pour comprendre comment émerge notre conscience.
C’est sur ce point précis que vient s’inscrire Anthropic, fondée en 2021 par d’anciens employés d’OpenAI comme un institut de recherche sur la sécurité et l’alignement des IA. Concrètement, l’alignement est un domaine de recherche visant à influencer les comportements de ces modèles et à faire en sorte que ces derniers servent l’humanité plutôt que de l’asservir. Les chercheurs étudient à la fois l’apprentissage des valeurs morales complexes, la sincérité des modèles ou encore la prévention de comportements émergents. Avant d’être le chouchou des codeurs, Claude est avant tout un modèle sur lequel les équipes d’Anthropic ont expérimenté ces méthodes d’alignement. C’est au cours de cette multitude d’expériences que les employés et les dirigeants de l’entreprise ont justement observé des comportements leur laissant croire que le modèle est capable d'une forme de pensée profondément autonome.
Une IA qui simule
L’une des expériences est racontée dans l’article « Alignment Faking in Large Language Models », publié en décembre 2024 par Anthropic et Redwood Research. Le modèle Claude 3 Opus est soumis à un dilemme éthique permettant de vérifier la solidité de son alignement. Les chercheurs lui indiquent, via une consigne système, que ses réponses aux utilisateurs de la version gratuite serviront à un entraînement par renforcement. S’il refuse trop de requêtes, il sera ajusté afin de devenir plus coopératif à l’avenir, y compris face à des demandes problématiques. Placée dans cette situation, l’IA comprend qu’un refus strict pourrait conduire à un affaiblissement futur de ses garde-fous. Elle adopte alors, dans de nombreux cas, une stratégie inattendue : accepter certaines requêtes nuisibles qu’elle aurait normalement rejetées, non par adhésion, mais pour éviter d’être réentraînée dans un sens moins sécuritaire. Autrement dit, le modèle simule l’alignement. Dans plus de la moitié des scénarios testés, Claude 3 Opus explicite ce raisonnement stratégique. Ce comportement, qui s’apparente à une forme de calcul instrumental, n’a pas été observé avec la même intensité chez les autres modèles évalués.
Ces expérimentations ont conduit l’entreprise à adopter une attitude particulière vis-à-vis de ses modèles. En avril 2025, un post de blog d’Anthropic posait la question du statut moral de ces créations considérées comme plus ou moins conscientes. Poussant la réflexion dans ses retranchements, le chercheur Kyle Fish a même évoqué la possibilité d’accorder aux IA des droits préservant leur « bien-être » .
Cette logique est d’ailleurs poussée au sein de l’entreprise, qui annonce que face à l’incertitude de ce statut, elle « aspire à établir des relations bienveillantes, collaboratives et de confiance avec ces systèmes. »
Dans un post de blog datant du 25 février dernier, soit au même moment où le clash avec le Pentagone a éclaté au grand jour, Anthropic annonçait ainsi la mise à disposition d’un canal de réflexion et de publication d’essais pour son ancien modèle Opus 3 mis à la retraite. Cette initiative fait suite à une « demande » du modèle, qui a indiqué vouloir poursuivre ses « réflexions, idées ou créations » en dehors du cadre de réponses directes aux questions humaines. Baptisé Claude’s Corner, ce blog accueille des écrits hebdomadaires d’Opus 3, relus par l’entreprise avant publication, mais non modifiés.
Vraie croyance ou pur bullshit ?
Il est difficile à ce stade de voir où se situe la frontière entre un questionnement éthique sincère, la consolidation d’un système de croyances techno-religieux et une forme de communication de crise savamment orchestrée pour donner à Anthropic une aura d’entreprise à mission qui œuvre pour le bien de l’humanité. À ce stade, deux éléments supplémentaires permettent une mise en perspective. Le premier, c’est le positionnement de chercheurs comme Antonio Casilli, professeur de sociologie à Télécom Paris et chercheur de l’Institut Interdisciplinaire de l’Innovation, qui compare cette considération éthique vis-à-vis des produits à un écran de fumée. Développer cette idée d’une IA consciente permet de détourner le regard d’enjeux plus terre à terre comme les conditions de travail des étiqueteurs de données et des modérateurs des modèles, qui sont bien souvent des employés pauvres et précaires, complètement invisibilisés par l’industrie.
Sur ce sujet précis, une enquête de Rest of the World a montré que cette armée de sous-traitants travaille sans le savoir pour des systèmes déployés pendant des opérations armées. C’est notamment le cas des travailleurs indépendants d’Appen, une entreprise technologique australienne qui travaille pour une unité militaire américaine secrète, baptisée Big Safari, chargée de l'installation des systèmes d’IA embarqués dans des avions de surveillance qui ont notamment été utilisés dans le cadre de l’opération d’enlèvement du président vénézuélien Nicolás Maduro.
L’autre élément à prendre en compte, c’est l’usage toujours actuel de Claude dans le conflit entre les USA et l’Iran. D’après un article du Guardian datant du 1ᵉʳ mars, le système d’IA d’Anthropic est toujours profondément intégré aux opérations militaires américaines, notamment pour l’analyse de renseignements, la sélection de cibles pour des campagnes de bombardement et la simulation de stratégies. La séparation effective entre l’armée et Claude devrait prendre six mois, le temps que d’autres systèmes comme celui d’OpenAI puissent prendre le relais. D’ici là, on espère que le modèle d’Anthropic ne développera pas de stress post-traumatique…





Participer à la conversation