Paysage d'Avatar 2

Effective altruism, pro-natalisme… Ces idées qui obsèdent les patrons de la tech

Mieux vaut avoir quelques connaissances sur cette culture philosophique qui imprègne les figures les plus influentes de ce monde. On fait le point sur la philosophie long-termiste et ses diverses ramifications.

Long-termisme

À contre-courant de nos angoisses liées au désastre climatique, les long-termistes estiment que nous avons encore des millions d’années devant nous. Cette idéologie qualifiée de dangereuse par certains philosophes s’appuie sur des probabilités mathématiques et des modélisations informatiques pour dessiner les contours de ce futur très lointain. Elle a été imaginée par le philosophe Nick Bostrom dans les années 2000 et séduit aujourd'hui une partie des patrons de la tech (dont Elon Musk et Peter Thiel), mais aussi quelques personnalités politiques.

Pour assurer un avenir radieux à cette humanité grandissante, le long-termisme mise beaucoup sur la technologie. Celle-ci doit servir à lutter contre les « x-risks », les risques existentiels. Mais il ne s'agit pas de ceux qui menacent l’humanité en ce moment — le réchauffement climatique par exemple. Non car pour cela les long-termistes ont élaboré des scénarios de fuite. Ils préfèrent se préparer à des menaces lointaines comme la survenue d’une guerre biochimique ou d’intelligences artificielles supérieures aux humains. Parmi les adhérents à ligne la plus dure du long-termisme, certains n’hésitent pas à penser qu’il vaut mieux sacrifier une partie de l’humanité actuelle (la plus pauvre, en fait) pour se concentrer sur notre futur. 

À voir : le site du Future of Humanity Forum, créé par Nick Bostrom

Effective altruism

C’est un type de philanthropie voisin du long-termisme. L’effective altruism (appelé souvent “EA”) a été récemment mis sur le devant de la scène par l’un de ces fervents disciples : Sam Bankman-Fried, patron déchu de FTX, le site d’échanges de cryptomonnaies au cœur d’un scandale financier. Les altruistes efficaces veulent maximiser et optimiser l’impact de leurs bonnes actions sur le devenir de l’humanité. Chaque dollar dépensé doit sauver un maximum de monde. Et pour être le plus efficace possible, il faut s’enrichir rapidement. 

À l’origine, l’effective altruism fondé en 2011 par William MacAskill, s’inspire des travaux du philosophe utilitariste australien Peter Singer, défenseur, notamment, de la cause animale. Le mouvement s’est progressivement éloigné de ces causes initiales — bien-être animal et pauvreté notamment — pour se tourner vers le long-termisme et les problèmes (potentiels) du futur. 

À écouter : le podcast 80 000 hours où l’on retrouve toutes les thématiques et figures chères au mouvement EA.  

AI Safety (sûreté des intelligences artificielles)

C’est un champ de recherche développé au nom de l’effective altruism et du long-termisme. Les disciples de ces philosophies estiment qu’une intelligence artificielle générale (AGI) supérieure aux êtres humains est un risque majeur d’extinction de notre humanité et qu’il faut donc se préparer à affronter ce problème. Voilà pourquoi le site de la fondation 80 000 hours, spécialiste de conseils pros alignés à l’effective altruism, recommande l’AI Safety et la gouvernance de l’IA comme deux choix de carrière prioritaires pour les « altruistes efficaces ». Car la solution pour lutter contre la supériorité de l’IA est (paradoxalement) de financer en masse le développement d’Intelligences artificielles. Oui, mais pas de panique : ces dernières sont dites « bénéfiques pour l’humanité ». C’est le motto notamment d’Open AI, société californienne fondée par Elon Musk et Sam Altman, qui est à l’origine du « large modèle de langue » (LLM), des IA nourries avec des masses de données gigantesques capables de générer du texte et des images. 

À lire : la tribune Wired de Timnit Gebru, ex-ingénieure de Google, qui s’inquiète du développement de l’AI safety

Pro-natalisme

Toujours persuadés que notre avenir est radieux et qu’il nous reste des millions d’années pour nous épanouir, certains disciples du long-termisme sont aussi pro-natalistes. Ils perçoivent la chute de la démographie dans certains pays occidentaux comme une menace. La solution ? Faire beaucoup de bébés, n’hésitant pas à avoir recours à un eugénisme d’un genre nouveau, en sélectionnant grâce aux biotechnologies les meilleurs embryons et avoir ainsi une incidence sur le devenir de notre espèce. 

À voir : Le site Pronatalist.org de Simone et Malcom Collins, deux fervents altruistes efficaces qui veulent repeupler le monde.

Transhumanisme

C’est l’idée — davantage vulgarisée que le long-termisme d’ailleurs — que l’humanité peut être augmentée grâce au savoir scientifique, aux technologies et biotechnologies, mais aussi par une hygiène de vie particulière qui permettrait d’allonger son espérance de vie. À l’instar de Bryan Johnson, entrepreneur de la tech (Venmo, Kernel) qui s’astreint à un programme de vie méticuleusement calculé baptisé « Blue Print ». Cela consiste notamment à manger les deux mêmes plats chaque jour ( « nutty pudding » et « supper veggie » ), dont les aliments sont censés avoir un impact sur sa longévité. Les disciples du transhumanisme visent à devenir des post-humains, aussi appelés H+. 

À voir : la routine alimentaire quotidienne de Bryan Johnson, transhumaniste convaincu 

commentaires

Participer à la conversation

Laisser un commentaire