
Il a murmuré à l’oreille de Mark Zuckerberg, Elon Musk ou Eric Schmidt. Aujourd’hui, il dénonce la direction prise par l’industrie de la tech et veut définir les règles d’un monde nouveau. Interview avec Dex Hunter-Torricke.
Dex Hunter-Torricke est un pro. Il distille avec une pondération soignée les attaques ciblées contre ses anciens employeurs, les constats sombres d’un monde qui se disloque et les notes d’espoir d’un futur où tout est encore possible. Un art de la persuasion qui nous laisse croire que redessiner le contrat économico-social mondial, après tout, pourquoi pas. Le Britannique, né à Londres d’une mère malaisienne et d’un père réfugié myanmarais, a appris chez les meilleurs. Ancien directeur de la communication chez Space X et Facebook, chargé de la rédaction des discours chez Google, Dex Hunter-Torricke a aussi été à la tête de la communication du Conseil de surveillance mis en place par Meta pour prendre des décisions concernant la modération des plateformes.
Une position d’insider qu’il abandonne fin 2025. Dex Hunter-Torricke se tourne contre son camp pour dénoncer son absence de vision et de responsabilité face aux bouleversements de l’IA. Pour apporter sa pierre à l’édifice, il fonde en février 2026 The Center for Tomorrow. L’objectif : dessiner les règles d’un monde sous IA et en faire des politiques applicables. Ambitieux, mais urgent, estime Dex Hunter-Torricke. Si nous n’adaptons pas notre trajectoire dans la décennie à venir, « le rythme du changement et des disruptions créés par nos technologies et l'effondrement de nos systèmes existants dépassera largement notre capacité à faire des choix qui conduisent à de meilleurs résultats ». Il remonte donc les manches de sa chemise blanche. Interview.
Vous avez travaillé plus de 15 ans pour les plus grandes entreprises technologiques. Quel a été le point de rupture ?
Dex Hunter-Torricke : Il n’y a pas eu de point de rupture unique. Je me suis tourné vers la technologie parce que je croyais en la tech comme instrument d'amélioration de la qualité de vie des gens. J'étais conscient que le secteur était imparfait, mais en grande partie il me semblait extraordinaire et transformateur. L'industrie a clairement choisi de prendre une direction différente. C’est ce qui m’a poussé à m’éloigner de ma carrière dans les Big Tech.
Au cours de ces 15 années, comment avez-vous senti changer les motivations des dirigeants de la tech ?
D. H-T : Mark Zuckerberg est l'une des plus grandes déceptions de ma carrière. C'est quelqu'un qui, même lorsqu'il était fortement critiqué, mettait toujours au centre les intérêts communautaires, notamment connecter le monde entier à Internet. Il pensait la connectivité comme un outil pour faire progresser les droits humains, soutenait l'immigration aux États-Unis, défendait les « dreamers », il a créé l'initiative Chan Zuckerberg pour faire progresser la science et l'éducation. Maintenant, il se distingue parce qu'il porte un tas de chaînes en or et a décidé d'embrasser la bro-culture. Quelle abdication complète de ses responsabilités ! Ce n'est qu'un exemple de la façon dont le discours et le leadership ont changé ces dernières années dans l'industrie.
Vous étiez dans une position privilégiée pour murmurer à l'oreille des dirigeants, ou tenter de les influencer. Avez-vous essayé d'avoir ces discussions avec eux ?
D. H-T : Chaque jour de ma carrière, nos conversations touchaient au cœur de la démocratie, de l'économie, des communautés, de la liberté d'expression en ligne, de la façon dont nous pensons aux personnes les plus vulnérables du monde. J'essayais constamment de pousser ces idées. Mais j’ai toujours été conscient d'être un rouage dans la machine. À un moment, je me suis posé la question si je ne pourrais pas avoir plus d’impact ailleurs. Lorsque la machine a évolué en quelque chose de différent, le choix a été facile.
Vous lancez le Center For Tomorrow. Quels seront vos premiers grands projets ?
D. H-T : Il s’agit d’une organisation à but non lucratif à portée internationale. Notre grande thèse est que l'avenir qui se prépare implique la collision et la combinaison de l'IA et de nos dysfonctionnements systémiques existants. On nous dit que la technologie change le monde, mais on oublie souvent que le monde change la technologie. Si nous continuons sur notre trajectoire, l’avenir ne sera pas plaisant pour la plupart des gens, et ne servira pas leurs intérêts.
Beaucoup de think tanks et d'organisations de recherche pensent le monde en silos : l'économie, le changement climatique... Ce n'est pas comme ça que l'avenir fonctionne. Notre première tâche sera de travailler avec des chercheurs et des experts de tous les domaines pour élaborer une thèse cohérente et crédible sur ce qu’il se passera quand ces forces très réelles se manifesteront dans les prochaines décennies.
À partir de là, nous voulons dessiner un autre programme. Quel est le monde dans lequel nous aimerions vivre si l'alternative est si sombre ?
Un autre axe d’approche est de transformer des idées vagues en solutions réelles, applicables, que les décideurs peuvent utiliser. Cela inclut comment construire un modèle économique et un contrat social adapté à l'ère de l'IA – une époque où l'IA dépassera probablement les capacités de la plupart des travailleurs. Comment faire évoluer l'ordre international pour que nous ne soyons pas à un bouton près d'une confrontation finale entre nations ? Comment transformer le modèle actuellement cassé de l'action climatique mondiale et utiliser la technologie pour confronter ce problème ?
Nous voulons construire une communauté mondiale. La plupart des think tanks et des conversations qui se passent à Davos n'ont pas d'impact car ils se tiennent entre élites. L'avenir ne peut pas appartenir à la mince portion des personnes les plus privilégiées. Cela doit être un choix des populations et nous devons généraliser cette conversation.
C'est une tâche énorme. Pensez-vous pouvoir réussir ?
D. H-T : Oui ! Ce qu'on demande à nos sociétés est la chose la plus difficile de notre histoire. Nous devons repenser l’intégralité de notre modèle politique, économique et international dans la prochaine décennie. Et nous devons le faire à un moment où les gens sont en colère, méfiants, font face à des conflits majeurs. Nous sommes loin de conditions idéales pour se réinventer. Des dizaines de milliers de personnes ont contacté le Centre, nous avons eu des conversations incroyables avec des dirigeants, des organisations et des gens ordinaires. Il y a un appétit et une reconnaissance que la trajectoire actuelle ne fonctionne pas et nous voulons de meilleures options.
Que pensez-vous de la position d’Anthropic qui refuse que ses outils servent pour des armes létales autonomes ou de la surveillance domestique ?
D. H-T : Je reconnais à Anthropic d'avoir essayé de poser une limite. D'un autre côté, Anthropic a vendu ses services au Pentagone en parfaite connaissance de cette administration et de ses objectifs à l'international. Dario Amodei s'est fait un profil en exprimant ses préoccupations sur l'avenir. Il ne peut pas être choqué que le Pentagone veuille utiliser ses outils IA d’une manière qu’il estime irresponsable.
L'opinion publique semble partagée entre le besoin urgent d'adopter ces outils et une méfiance significative concernant leur impact. Quel rôle comptez-vous donner aux citoyens dans votre approche ?
D. H-T : Il n’est pas surprenant que l'écrasante majorité des gens se méfie de l'IA. Ces technologies n'ont pas été bien expliquées, ont été développées par des entreprises qui ont déjà des problèmes de confiance, dans une industrie qui a échoué à s'engager avec les gens ordinaires. La plupart du temps, la technologie et les valeurs qui y sont attachées sont imposées. La peur numéro un est parfaitement raisonnable : « Vais-je perdre mon emploi ? Va-t-il avoir moins de valeur ? ». Nous devons avoir une conversation simple mais essentielle : existe-t-il un futur où les individus n’ont plus besoin de travailler pour survivre ? Pour certains, ce futur n’est pas souhaitable. Pour beaucoup d’autres, cela pourra être un avenir où nos enfants peuvent se réaliser sans être réduits à faire le choix du moins pire pour payer leurs factures.
Y a-t-il un modèle économique pour l'IA éthique ?
D. H-T : Le seul modèle économique devrait être éthique. La plupart des consommateurs et des entreprises veulent opérer de manière responsable. C'est une partie de la conversation que j'espère avoir avec l'industrie tech. Elle doit redécouvrir son âme et sa boussole morale. C'est un chemin plus solide pour une industrie résiliente qui n'est pas largement détestée par les populations et à la merci des régulateurs.
Les gouvernements sont dans une course pour rester pertinents dans le développement de l'IA. Seront-ils réceptifs à vos arguments ?
D. H-T : La grande majorité des dirigeants politiques sont ouverts d'esprit à beaucoup des idées que je leur présente. Beaucoup d'entre eux reconnaissent que les systèmes actuels ne fonctionnent pas.
Le Center For Tomorrow est basé à Londres. L'avenir de l'IA se joue actuellement entre les États-Unis et la Chine. Le Royaume-Uni ne fait même plus partie de l'UE. Est-ce un point stratégique pour concevoir l'avenir d'un monde à l'ère de l'IA ?
D. H-T : Le Royaume-Uni est une puissance moyenne. Nous avons une fenêtre très étroite dans laquelle les pays de l’Union européenne, le Royaume-Uni, le Canada, l'Australie, la Nouvelle-Zélande, le Japon, l'Inde ou encore les pays d’Amérique latine devront collaborer pour avoir une place à la table de négociation.
L’IA avancée, l’informatique quantique, la fusion nucléaire… Ces technologies, centrales pour notre avenir économique et la survie de nos sociétés, ont des chances de se manifester aux États-Unis ou en Chine. Il n'y a aucune garantie qu'ils les partageront avec nous. Il est beaucoup plus probable qu'ils demandent en échange de céder nos ressources naturelles, de réécrire nos règles sociétales et commerciales. Ce n'est pas un avenir acceptable.





Participer à la conversation