Sam Altman sur iun fond d'apocalypse avec des robots tueurs

De quoi Sam Altman a-t-il vraiment peur quand il évoque une apocalypse causée par les IA ?

Depuis que Sam Altman, le fondateur d'Open AI est devenu un personnage public, il n'a eu de cesse de prévenir le monde d'une potentielle apocalypse venue des intelligences artificielles. De quoi a-t-il vraiment peur ? Et doit-on avoir peur avec lui ?

Le 14 mars dernier, Sam Altman, le très médiatique patron d'OpenAI postait une photo teaser le montrant assis sur un canapé à côté d'un sac à dos bleu. Le post était accompagné d'une phrase en apparence anodine, mais ce qui a retenu l'attention des internautes, c'était bien évidemment ce mystérieux sac à dos bleu que l'on retrouvait dans de nombreuses autres photos. Personne ne sait vraiment ce que contient ce sac, mais les rumeurs du Web s'accordent à dire qu'il s'agit d'un MacBook pro. Sur cet ordinateur, on trouverait un « switch kill », une commande qui pourrait effacer définitivement ChatGPT. L'idée paraît saugrenue et pourtant elle est raccordée au personnage. Depuis l'arrivée de Sam Altman sur la scène médiatique, ce dernier n'a cessé de prévenir les gens du potentiel danger que représente l'intelligence artificielle et donc paradoxalement, sa propre création pour l'avenir de l'humanité.

Les IA, futures armes de destructions massives ?

En mai dernier, Altman avait cosigné la tribune demandant la prise en compte et l'atténuation du risque d'extinction par l'intervention d'une intelligence artificielle, au même titre que les pandémies ou une guerre nucléaire. https://www.safe.vai/statement-on-ai-risk. Cette crainte, il la tient du mouvement de pensée auquel il appartient. Comme Elon Musk ou Pether Thiel, les longtermistes estiment que l'humanité n'en est qu'au début de son développement et qu'il faut l'aider à aller le plus loin possible en modélisant le futur lointain. Pour cela, il faut éviter les grands dangers qui nous menacent comme une extinction de masse causée par un astéroïde, une catastrophe climatique et donc, une « apocalypse robot ».

D'après le site 80000hours, référents chez les altruistes efficaces et longtermistes, nous aurions 50 % de chance de développer une IA aussi intelligente qu'un humain d'ici une quarantaine d'années et 75 % de chance d'obtenir ce résultat d'ici la fin du XXIe siècle. Ce qui semble effrayer Sam Altman et ses compères, ce n'est pas vraiment l'apparition d'une IA semblable à Skynet dans Terminator, mais plutôt l'usage malveillant d'un système d'IA si puisant qu'il pourrait être considéré comme une arme de destruction massive. De manière plus globale, la complexité de ces systèmes relève des effets inattendus qu'il pourrait avoir sur la société, et son bon fonctionnement serait totalement sous estimé.

Même sans aller aussi loin dans le temps, Sam Altman partage régulièrement ses angoisses sur les potentielles conséquences inattendues que pourrait engendrer ChatGPT. Dans une interview donnée en juillet dernier lors d'une conférence, il a indiqué que ce qui l'empêchait le plus de dormir était le sentiment d'avoir fait quelque chose de mal en lançant l'IA et qu'il y avait dans le système, quelque chose de dur et de compliqué que personne ne comprenait vraiment et qui aurait déjà décollé. Ces arguments se recroisent d'ailleurs souvent avec ceux des hustle bros, ces entrepreneurs de YouTube qui répètent à longueur de vidéos que l'IA va tout changer (même si l'on ne sait pas encore vraiment comment) et qu'il faut absolument prendre le train en marche si on ne veut pas être dépassés par un progrès forcément destructeur.

Un survivaliste angoissé par sa réputation ?

Le fait est que lorsqu'il est interrogé, Sam Altman reste toujours vague sur ce qui lui fait vraiment peur vis-à-vis de l'IA. On a compris qu'il craignait les changements radicaux de paradigme, mais que signifient vraiment ces mises en garde répétées ? De nombreux médias se sont penchés sur la personnalité de Sam Altman et ont découvert qu'en plus d'être un longtermiste, il était aussi un survivaliste dans l'âme. Dans un article du New Yorker de 2016, il expliquait déjà que l'un de ses passe-temps favoris était « la préparation à la fin du monde ». Altman déclarait posséder notamment « des armes, de l’or, de l’iodure de potassium, des antibiotiques, des piles, de l’eau, des masques à gaz des forces de défense israéliennes et un grand terrain à Big Sur vers lequel je peux voler. » Il estime aussi pouvoir s'envoler avec Pether Thiel vers la Nouvelle Zelande si la fin du monde robotisé devait arriver demain.

Et si, au-delà de son passe-temps favori, ces appels à la vigilance un brin paradoxaux n'étaient en fait qu'une stratégie de communication ingénieuse. C'est l'hypothèse qu'émet Albert Fox Cahn, directeur exécutif du Surveillance Technology Oversight Project, une organisation à but non lucratif qui lutte contre la surveillance de masse, cité par The Atlantic. L'idée principale serait de vendre l'IA comme un outil tellement puissant qu'il pourrait potentiellement chambouler l'industrie et même provoquer la fin du monde. Ses créateurs comme Sam Altman seraient forcément des dieux surpuissants pouvant, par leur création, détruire l'humanité ou bien la sauver grâce à ce fameux sac à dos bleu. En se reposant sur cette vague menace lointaine et par une demande de régulation qu'il a publiquement appelée de ses vœux, Sam Altman se met dans une position de supériorité éthique, qui le rend bien moins critiquable qu'un Mark Zuckerberg par exemple. Le véritable Terminator qui se cache dans le placard du créateur de ChatGPT ne pourrait être au final que sa future mauvaise réputation.

David-Julien Rahmil

David-Julien Rahmil

Squatteur de la rubrique Médias Mutants et Monde Créatif, j'explore les tréfonds du web et vous explique comment Internet nous rend toujours plus zinzin. Promis, demain, j'arrête Twitter.

Discutez en temps réel, anonymement et en privé, avec une autre personne inspirée par cet article.

Viens on en parle !
commentaires

Participer à la conversation

Laisser un commentaire