Super héros dans une galaxie future

Ils pensent que le futur de l’humanité sera radieux et grandiose. Qui sont les « long-termistes » ?

L’idéologie la plus influente sur l’élite technologique de la Silicon Valley voit grand et veut régler nos problèmes futurs. Éclairage avec le philosophe et historien Emile P. Torres.

Quel rapport entre les deux entrepreneurs de la tech les plus bruyants du moment Sam Bankman-Fried, patron paria de la crypto depuis la chute fracassante de son entreprise FTX (place de marché centralisée de cryptomonnaies), et Elon Musk, nouveau régent hyperactif de Twitter ? Tous les deux se reconnaissent dans le « long-termisme ». Les « long-termistes » sont persuadés que l’humanité n’est qu’à l’aube de son développement. Ils se sont donné pour mission de modéliser notre futur lointain pour mener à coups de milliards de grands projets porteurs d'un avenir radieux. Mais pour le philosophe et historien Emile P. Torres, ce mouvement à la croisée de la philosophie morale, des mathématiques et de la science-fiction, porte en lui les germes d’un nouvel autoritarisme technologique. Il alerte sur son influence acquise au sein de l’élite de la tech.

L’effondrement brutal de la bourse d’échange FTX a jeté la lumière sur le long-termisme, ce courant de pensée discret et pourtant très influent au sein de la Silicon Valley. De quoi s’agit-il ?

Emile P. Torres : Le long-termisme est une branche de la philosophie morale qui puise dans les théories mathématiques pour spéculer sur le futur lointain de l’humanité. Pour les long-termistes, les découvertes récentes de la cosmologie sur l’expansion de l’univers ouvrent des perspectives radicalement nouvelles. L’humanité pourrait ainsi subsister pour des millions d’années encore, dès lors se pose la question de comment assurer dès aujourd’hui les conditions du maintien et de l’expansion de notre espèce. Ils s’appuient sur les probabilités mathématiques et les modélisations informatiques pour dessiner les contours de ce futur très lointain. Pour exemple, le philosophe Nick Bostrom estime que 10 58 (c’est-à-dire 1 suivi de 58 zéros) est une estimation juste de la taille de l’humanité dans ce futur lointain. C’est vertigineux ! Dès lors que l’on réfléchit à partir de ces ordres de grandeur, envisager le destin de cette humanité future devient un enjeu colossal. Les long-termistes considèrent que la valeur qui gît dans ce futur lointain est inestimable et qu’elle surpassera en tout point tout ce qui a pu être créé, inventé et mis en ordre depuis la naissance de l’humanité. Si l’on garantit aux millions de milliards d’individus de demain un avenir radieux, alors cette valeur pourra réaliser son plein potentiel, le destin de l’humanité sera scellé et la prospérité garantie. Pour ancrer l’humanité dans ce destin cosmique grandiose, le développement technologique est un élément clé. Le long-termisme est donc un mélange d’utopie et de techno-optimisme.

Qui sont les penseurs à l’origine de ce mouvement ?

E. P. T. : Ce mouvement a pris racine à l’université d’Oxford au tournant des années 2000. Il est notamment incarné par le philosophe d’origine suédoise Nick Bostrom qui a créé en 2005 le think tank Future of Humanity Institute. Nick Bostrom s’est fait connaître par une série d’articles, très spéculatifs dans lesquels il défend la colonisation de l’espace comme un moyen sûr d’assurer à la post-humanité un avenir radieux. Mais plutôt que de chercher à « terraformer » des exoplanètes, Bostrom propose de créer de vastes simulations informatiques dans lesquelles nos descendants pourraient vivre et possiblement transcender leur enveloppe corporelle. Le philosophe australien Toby Ord, s’enthousiasme dans son livre The Precipice sur les facultés nouvelles que l’humanité pourrait acquérir à la faveur de ce futur et de ses potentialités inouïes. William Mac Askill, un philosophe écossais enseignant à Oxford explique quant à lui, dans son best-seller What We Owe to The Future, que l’humanité est à la croisée des chemins ; elle peut s’ouvrir à un destin glorieux qui s’étirera sur des millions d’années ou biens périr demain du fait de la mauvaise gestion de certains facteurs. Les long-termistes parlent de « risques existentiels » (x-risks) pour se référer aux évènements brutaux qui pourraient entraver ce destin glorieux, par exemple une pandémie mondiale ou un conflit nucléaire. Ils sont aussi très préoccupés par les développements en matière d’intelligence artificielle et considèrent qu’une IA « forte » constitue aussi un risque existentiel majeur. Les plus radicaux des long-termistes se sont donc donné une mission cardinale : réduire à tout prix ces risques existentiels.

Quels sont les liens entre ce courant et l’effective altruism dont se réclame Sam Bankman-Fried ?

E. P. T. : Dans les pas du philosophe utilitariste Peter Singer qui s’est rendu célèbre pour sa défense de la philanthropie en expliquant que les riches occidentaux ont l’obligation morale de contribuer à l’amélioration du sort des populations des pays du sud, les altruistes efficaces réfléchissent à comment maximiser leur action positive sur le monde. La théorie du long-termisme leur a fait radicalement changer de perspective. Plutôt que de se concentrer sur les enjeux du présent, comme le fait de trouver des solutions à la pauvreté qui frappe 1,3 milliard de personnes dans le monde, ne serait-il pas plus efficace de se concentrer sur les dizaines de milliers de milliards d’êtres humains de demain ? Les altruistes efficaces étant obsédés par le calcul de la valeur attendue, ils en sont arrivés à la conclusion que se concentrer sur le futur lointain est plus efficace, en termes strictement mathématiques, que de se concentrer sur le présent, car l’effet de leur action concernera un nombre plus important de personnes. Ainsi, alors même que les grandes causes historiques associées au mouvement de l’altruisme efficace étaient la réduction de la pauvreté dans le monde et le bien-être animal, le mouvement s’est progressivement tourné vers le long-termisme. Sam Bankman-Fried lui-même avait créé via FTX un organisme philanthropique, le FTX Future Fund.

Vous considérez le long-termisme comme un courant de pensée dangereux. Pourquoi ?

E. P. T. : Ma première source d’inquiétude concerne le fait que la pensée long-termiste postule une forme d’impartialité radicale qui conduit à considérer que tout individu compte de la même manière, quels que soient sa race, son genre, sa position sociale ou géographique mais aussi qu’il soit né ou pas, qu’il vive aujourd’hui ou dans un million d’années. Ce principe vient légitimer le fait que se préoccuper du destin des milliers de milliards de post-humains de demain est la priorité numéro un. Le long-termisme fait fi du présent au nom du futur. Cela devient encore plus grave quand on en vient à relativiser des catastrophes historiques majeures en considérant qu’elles ont été des atrocités en termes absolus, mais qu’en termes relatifs, à l’échelle du destin cosmique plus que millénaire de l’humanité, ce ne sont que des faux pas. Nick Bostrom a déclaré au sujet de la Seconde Guerre mondiale que cet évènement constituait « un massacre énorme pour l’homme, un petit faux pas pour l’humanité ». Les long-termistes ne considèrent pas les dérèglements climatiques comme des risques existentiels ! Pourquoi ? Parce qu’ils envisagent des « scénarios de fuite » grâce à la colonisation de l’espace. Cette minimisation, cette trivialisation des problèmes du présent au nom du futur m’apparaît comme étant particulièrement dangereuse.

Cette idéologie influence particulièrement l’élite de la Silicon Valley. C’est aussi un élément problématique pour vous ?

E. P. T. : Cette idéologie concentre deux éléments hautement inflammables qui ont déjà fait les pires heures de l’histoire : la conviction que la fin justifie les moyens (raisonnement utilitariste) et une vision techno utopiste d’un futur menacé par le chaos. Les long-termistes se sont déjà positionnés en faveur de la violence préventive ou encore des systèmes de surveillance globalisés. Cette idéologie possède en son cœur tous les ingrédients pour justifier qu’une minorité de true believers s’engage dans des actions extrêmes et violentes au nom de l’humanité future. Le fait qu’elle trouve un écho chez ceux chargés de façonner notre destin technologique est effrayant. Il est donc urgent de jeter la lumière sur ce courant de pensée de niche qui a pourtant une influence très forte sur l’élite de la tech.

commentaires

Participer à la conversation

Laisser un commentaire