L’idée que les milliardaires de la Silicon Valley se préparent à l’apocalypse a quelque chose d’à la fois fascinant et inquiétant. Comme l’explique Zoe Kleinman dans son enquête publiée par la BBC, plusieurs figures majeures du monde technologique semblent investir dans des refuges souterrains, des propriétés isolées ou des plans d’« assurance-apocalypse ». Mark Zuckerberg, Sam Altman, Reid Hoffman et d’autres géants du numérique incarnent cette tendance où la peur du futur se mêle à la démesure des moyens.
Zoe Kleinman raconte que le fondateur de Facebook a entamé dès 2014 la construction de Koolau Ranch, un domaine de 1 400 acres sur l’île de Kauai, à Hawaï. Le site comprendrait un abri autosuffisant en énergie et en nourriture. Les ouvriers furent contraints de signer des accords de confidentialité, tandis qu’un mur de six pieds en dissimule la vue. Interrogé, Zuckerberg a nié bâtir un bunker, parlant simplement d’un « petit sous-sol ». Pourtant, les rumeurs persistent : il aurait aussi acheté une série de maisons à Palo Alto avec des installations souterraines évoquant davantage une forteresse qu’un simple agrandissement.
Le phénomène ne s’arrête pas là. Zoe Kleinman rappelle que Reid Hoffman, co-fondateur de LinkedIn, admet avoir évoqué une « assurance-apocalypse », assurant que près de la moitié des ultra-riches posséderaient un refuge de secours, souvent en Nouvelle-Zélande. Sam Altman, le patron d’OpenAI, aurait même envisagé de rejoindre Peter Thiel dans une propriété isolée en cas de désastre global. Cette peur du chaos semble se nourrir des propres créations de ces entrepreneurs : l’intelligence artificielle.
La journaliste souligne qu’Ilya Sutskever, scientifique en chef d’OpenAI, se serait convaincu dès 2023 que l’humanité approchait du moment où les machines égaleraient l’intelligence humaine. Selon le livre de la journaliste Karen Hao, il aurait alors proposé de creuser un abri pour protéger les chercheurs d’OpenAI avant la mise en ligne d’une IA dite « générale ». Zoe Kleinman note que cette remarque — « Nous allons forcément construire un bunker avant de libérer l’AGI » — résume bien l’ambivalence d’une élite à la fois fascinée et terrifiée par la puissance qu’elle développe.
La question demeure : faut-il craindre que ces prédictions soient fondées ? Sam Altman assurait en 2024 que l’AGI arriverait « plus tôt que la plupart ne l’imaginent ». Demis Hassabis de DeepMind parle d’un horizon de cinq à dix ans. D’autres, comme la professeure Wendy Hall de l’Université de Southampton, relativisent : « La communauté scientifique affirme que ces technologies sont impressionnantes, mais nous sommes encore loin de l’intelligence humaine. » De son côté, Babak Hodjat, directeur technologique de Cognizant, rappelle qu’il faudrait encore plusieurs percées fondamentales avant d’y parvenir.
Pour Zoe Kleinman, cette divergence reflète une fracture entre discours marketing et réalité scientifique. D’un côté, des investisseurs promettent une ère d’abondance grâce à l’IA — Elon Musk parlant même d’un « revenu universel élevé » et de robots domestiques dignes de Star Wars — ; de l’autre, des chercheurs évoquent des scénarios de domination des machines ou de catastrophes climatiques.
Certaines mesures gouvernementales cherchent à encadrer le risque : l’administration Biden avait exigé que les grandes entreprises de l’IA soumettent leurs tests de sécurité, avant que Donald Trump ne suspende une partie de cet ordre exécutif, jugé trop restrictif. Le Royaume-Uni, lui, a créé l’AI Safety Institute pour mieux cerner les dangers des systèmes avancés.
Mais, comme le note Zoe Kleinman en citant un ancien garde du corps d’un milliardaire, ces plans de survie peuvent avoir une faille très humaine : si l’apocalypse survenait vraiment, les équipes de sécurité pourraient bien éliminer leurs employeurs pour occuper les bunkers à leur place.
Pour Neil Lawrence, professeur de machine learning à Cambridge, toute cette panique autour de l’« intelligence générale » relève de la fiction : « L’idée d’une AGI est aussi absurde que celle d’un véhicule universel : aucun engin ne peut à la fois voler, naviguer et marcher. » À ses yeux, le véritable enjeu n’est pas une IA consciente, mais l’impact social d’outils déjà omniprésents. Ces systèmes, fondés sur des modèles de langage, ne ressentent rien : ils prédisent simplement des séquences à partir de données. Comme le rappelle Babak Hodjat, un humain intègre immédiatement une nouvelle information, tandis qu’une machine ne la « sait » que si on la lui répète sans cesse.
Pour Vince Lynch, directeur de IV.AI, l’idée d’une AGI imminente sert surtout à attirer les capitaux : « C’est du bon marketing : si vous prétendez construire la chose la plus intelligente jamais créée, les investisseurs viendront à vous. »
Au fond, résume Zoe Kleinman, cette course aux abris et aux super-IA révèle moins une peur rationnelle qu’un vertige existentiel : celui d’une élite technologique consciente d’avoir ouvert la boîte de Pandore — et qui, tout en rêvant d’un futur parfait, creuse déjà son refuge pour s’en protéger.



