Elon Musk prépare l’IPO la plus spectaculaire de l’histoire avec SpaceX. Mais derrière le record financier se cache un pari encore plus vertigineux : déplacer les data centers de l’intelligence artificielle dans l’espace pour contourner l’impasse énergétique terrestre.
Elon Musk vient de confirmer l’introduction en Bourse la plus colossale de l’histoire : celle de SpaceX en 2026.
La date n’est pas encore arrêtée, car il s’agit d’une opération dont les préparatifs vont prendre plusieurs mois, voire plusieurs trimestres, puisqu’il serait question de lever 30 milliards de dollars auprès des investisseurs privés et des gérants du monde entier.
Pourquoi 30 Mds$ et pas 33 Mds$, ou plus ?
Les conditions de marché en décideront, mais aussi – et surtout – la faisabilité du cœur du projet, sur lequel nous allons revenir en détail.
En ce qui concerne les 30 Mds$, c’est symbolique : 1 milliard de plus que le précédent record établi par Saudi Aramco (29,4 milliards de dollars à l’issue de l’IPO du 11 décembre 2019).
Si SpaceX évoque surtout le tourisme spatial ou des projets de colonisation de Mars auprès du grand public, pour les investisseurs, il s’agit de participer à une révolution technologique majeure : installer des data centers en orbite, sous forme d’une myriade de satellites sur le modèle Starlink.
Ce projet redéfinit – sur le papier – la course planétaire à l’IA… et SpaceX semble déjà avoir deux longueurs d’avance sur Blue Origin de Jeff Bezos (qui vient tout de même de réussir à poser le propulseur de sa fusée New Glenn sur une plateforme en mer, ce qui en fait le second lanceur récupérable)… et trois ou quatre longueurs sur les Chinois.
Les Européens ? Oubliez, ils sont hors course !
Le projet de data centers orbitaux consiste à exploiter l’énergie solaire, illimitée 24h/24 en orbite, et à résoudre les problèmes de refroidissement grâce aux -100 °C qui règnent dans l’espace à 500 km d’altitude (sur la partie sombre de la Lune, la température tombe à -150 °C).
Autre avantage : pas de permis de construire à réclamer, pas de ressources en eau à sécuriser (souvent au détriment de l’agriculture et des nappes phréatiques).
Plusieurs mois après que nous ayons prédit – « nous » : les experts d’Agora – que les mégaprojets d’installation de data centers de dimension inconnue à ce jour (hyperscalers) d’ici trois ans excéderaient de très loin les capacités énergétiques nécessaires pour les faire fonctionner, cette évidence, qui n’en était pas une, commence à s’imposer aux géants de l’IA.
Elle n’est toujours pas dans les cours pour la plupart des gérants qui les font figurer en bonne place dans leurs portefeuilles : les « Sept fantastiques » (+3) pèsent près de 40 % des ETF indiciels majeurs (répliquant le S&P 500 ou le Nasdaq 100).
Il existe déjà 5 400 data centers aux Etats-Unis, mais l’enjeu n’est pas de savoir s’ils vont passer de 5 000 à 10 000… Car en ajouter seulement 20 de plus, avec des capacités de 1 gigawatt de calcul, ferait « tomber » le réseau de distribution américain.
Si les data centers en projet et déjà financés sortent de terre d’ici 2028, ils vont consommer jusqu’à 12 % de l’électricité produite aux Etats-Unis dans trois ans.
Les Etats-Unis produisent actuellement une puissance totale de 490 gigawatts ; la barre des 500 sera franchie en 2026 – ce sera loin d’être suffisant.
Des experts estiment que l’IA aura besoin de disposer de 125 gigawatts d’ici 2035. Cela représente un quart de ce que peut délivrer l’ensemble du réseau électrique. Rien que pour l’intelligence artificielle.
Goldman Sachs prévoit que la demande énergétique liée à l’IA pourrait augmenter de 165 % d’ici 2030.
Il faudrait construire l’équivalent de 40 réacteurs nucléaires d’une puissance comparable à celle d’un EPR en quatre ans aux Etats-Unis, ce qui est évidemment impossible.
Mais Elon Musk veut convaincre les investisseurs qu’il a la solution.
Il suffirait de reconfigurer les satellites Starlink V3 (ceux dédiés aux télécommunications) afin qu’ils embarquent des puces de calcul d’intelligence artificielle.
Et sachez-le : ce ne seront pas celles de Nvidia. Elon Musk veut maîtriser la chaîne de calcul de A à Z.
Pour faire fonctionner les unités de calcul, chaque satellite serait doté de panneaux captant une énergie solaire 24h/24 et 7j/7 : pas de nuages, pas de nuit, pas d’intempéries, pas de pannes de réseau électrique.
Elon Musk estime que ses lanceurs Starship pourraient mettre en orbite chaque année entre 300 et 500 gigawatts de puissance de calcul dédiée à l’IA. Or, une puissance de calcul de 300 gigawatts dépasserait déjà la consommation totale d’électricité de l’ensemble de l’économie américaine en seulement deux ans.
Il existe en effet une différence majeure entre l’électricité produite et celle consommée aux Etats-Unis, en raison de déperditions colossales dues à l’obsolescence du réseau. De plus, une grande partie de l’électricité renouvelable (éolienne et photovoltaïque) n’est pas consommée au moment de son pic de production.
L’Europe subit les mêmes désagréments : pas assez de pilotable l’hiver, trop de production l’été ; il faut même déconnecter des centrales nucléaires, faute de quoi le réseau sature.
Elon Musk veut délocaliser l’IA en orbite, et il possède déjà les fusées, les satellites (en tant que réceptacles) et l’infrastructure de lancement.
Il n’a pas besoin de demander l’autorisation d’installer des centrales à gaz (xAI y a largement recours pour faire tourner Grok) ou des mini-réacteurs auprès des autorités fédérales, ni de nouveaux raccordements au réseau électrique auprès des autorités locales.
Elon Musk résout la quadrature du cercle : amis investisseurs, à vos réserves de cash – Starship s’occupe du reste !
Sam Altman, le PDG d’OpenAI, valide le projet :
« Les passionnés d’espace (comme moi) recherchent depuis longtemps un modèle économique permettant la migration humaine au-delà de notre planète. Je pense que les serveurs IA dans l’espace constituent le premier véritable modèle économique qui en inspirera beaucoup d’autres. »
Bon, vous me voyez venir !
Il va falloir désorbiter et redescendre sur Terre : confronter le projet à sa faisabilité technique.
Exploiter un data center en orbite n’a encore jamais été testé, encore moins en réseau (chaque satellite représenterait 1/100e de la capacité de calcul d’un hyperscaler).
Ou alors, il faudrait en envoyer moins, mais de plus gros – donc plus complexes à assembler et à tester dans de gigantesques chambres à vide, réfrigérées à -100 °C.
Ils ne seront pas prêts avant 2028, même si des fusées Starship sont déjà prêtes à décoller.
Sur Terre, on peut recréer le vide et le froid, mais pas les tempêtes de rayonnement solaire, comme celles que nous venons de connaître et qui nous ont permis d’observer des aurores boréales jusque dans le sud de la France… tout en révélant des failles logicielles sur des Airbus A320, dont les systèmes de commande se sont montrés vulnérables aux vents solaires.
Et si jamais une panne mécanique survient à 500 km d’altitude, quel serait l’impact sur le dispositif connecté ? Sera-t-il possible de réparer, et à quel coût ?
Les missions de sauvetage risquent d’engloutir tous les bénéfices. La correction des aberrations optiques et des problèmes de panneaux solaires du télescope Hubble, entre 500 et 600 km d’altitude – avec intervention humaine – a coûté des milliards.
Mais le vrai problème est ailleurs.
Depuis l’arrêt de l’exploitation des navettes spatiales par la NASA en 2011, plus aucune opération de maintenance n’est possible, car aucun vaisseau spatial existant ou en développement ne dispose des capacités nécessaires pour capturer un satellite, le ramener sur Terre ou effectuer des réparations à distance en « visuel » (navette habitée), faute de bras télécommandé (de conception canadienne).
C’est aussi simple que cela : la « dépanneuse de l’espace » a disparu avec la navette de la NASA… et Elon Musk va devoir en fabriquer une nouvelle.
Les paris sont ouverts sur le temps de développement d’un tel dispositif : il faudrait un module équipé d’un bras, fonctionnant en tandem avec un autre module aux bonnes dimensions pour ramener le satellite sur Terre.
Pour la NASA, il avait fallu plus de dix ans… mais sans IA à l’époque. Cela devrait aller plus vite cette fois-ci, mais réduire le délai à cinq ans serait déjà un exploit.
L’introduction en Bourse de SpaceX, elle, devrait intervenir d’ici douze mois – et beaucoup de questions techniques vont surgir d’ici là !

1 commentaire
Bien vu, ce n’est pas gagné même si l’idée est géniale, il y a toujours le risque du grain de sable …