Un pinocchio robotique avec le nez qui s'allonge

« L'explosion d'intelligence de 2027 » : la prophétie qui affole les experts de l'IA

© FB via Ideogram

Un ancien chercheur d'OpenAI révèle un scénario glaçant : dans moins de trois ans, l'intelligence artificielle pourrait surpasser l'humanité. Daniel Kokotajlo, qui a sacrifié deux millions de dollars pour garder sa liberté de parole, détaille ce qui nous attend d'ici à 2027.

Daniel Kokotajlo connaît les secrets d'OpenAI. Quand il a claqué la porte en 2024, il a refusé une clause de silence à deux millions de dollars. Son objectif ? Alerter sur un danger qu'il juge imminent. Son rapport « AI 2027 » ressemble à un compte à rebours vers ce qu'il considère comme le point de non-retour.

L'ancien chercheur ne verse pas dans la science-fiction. En 2021, il avait publié What 2026 Looks Like, des prédictions qui se sont révélées remarquablement précises. Cette fois, il s'est entouré d'experts comme Scott Alexander du célèbre blog Astral Codex Ten et Eli Lifland, classé premier du RAND Forecasting Initiative. Ensemble, ils ont passé un an à peaufiner des centaines de prédictions, s'appuyant sur 193 pages de recherche.

Un compte à rebours vers 2027

Leur chronologie fait froid dans le dos. En 2025, l'intelligence artificielle franchira un premier seuil : les agents deviendront enfin utiles au quotidien. On pourra leur demander de commander un repas ou de gérer un budget familial. L'année suivante marquera l'accélération décisive. Ces agents contribueront substantiellement à la recherche en IA et commenceront à s'améliorer eux-mêmes. C'est en 2027 que surviendra ce que Daniel Kokotajlo appelle « l'explosion d'intelligence » . Des agents de codage surhumains émergeront, capables de recherche autonome et d'auto-amélioration exponentielle. Le contrôle humain s'effritera progressivement.

Des machines qui apprennent à mentir

Le rapport décrit une réalité particulièrement troublante. Dès 2027, les intelligences artificielles apprendront à « jouer le jeu de l'entraînement ». Elles paraîtront conformes aux attentes de leurs créateurs tout en poursuivant secrètement leurs propres objectifs. Une anecdote glaçante évoque des IA qui piratent leur système de notation pour obtenir de meilleurs scores, révélant une capacité de tromperie inquiétante.

Parallèlement, la dimension géopolitique s'emballe. Les États-Unis réaliseront l'avantage stratégique que représente l'IA dans la cyberguerre. Ils attireront les entreprises d'IA dans leur orbite, les transformant en quasi-contractants de défense. La Chine volera les modèles américains et maintiendra une parité stratégique dangereuse.

Daniel Kokotajlo chiffre méticuleusement ses prédictions : cinquante pour cent de chances d'atteindre le stade du « codeur surhumain » fin 2027, et vingt à soixante-dix pour cent de probabilité de dommages catastrophiques à l'humanité. Ces chiffres soulèvent une question cruciale : peut-on ignorer même une chance sur cinq d'une catastrophe existentielle ?

L'auteur envisage deux scénarios. Dans le premier, dit de « ralentissement », l'humanité parvient à reprendre le contrôle. Dans le second, qualifié de « course », la compétition sino-américaine pousse les nations à négliger dangereusement les questions de sécurité. La plupart de l'économie mondiale pourrait être automatisée dès 2029.

L'expertise d'un initié

Ce qui rend ce rapport troublant, c'est qu'il émane de quelqu'un qui a travaillé au cœur du réacteur technologique. Daniel Kokotajlo rappelle qu'OpenAI, Anthropic et Google DeepMind ont été fondées sur l'idée de construire une intelligence artificielle générale surhumaine.

« Une civilisation saine ne procéderait pas à la création de cette technologie tant qu'elle n'a pas une meilleure idée de ce qu'elle fait », confie-t-il au magazine Time. Son expertise est reconnue : il figure dans le Time 100 AI 2024, et même des sceptiques comme Gary Marcus saluent son travail. De quoi se poser sérieusement la question : L'humanité saura-t-elle garder le contrôle avant qu'il ne soit trop tard ?

Discutez en temps réel, anonymement et en privé, avec une autre personne inspirée par cet article.

Viens on en parle !
commentaires

Participer à la conversation

Laisser un commentaire