La bulle de l’IA a déjà explosé : non pas à cause de valorisations démentes, mais par manque d’énergie.
Mercredi fut une séance historique pour Wall Street : avec le franchissement des 48 000 points et un zénith à plus de 48 400 points, l’article le plus populaire auprès des professionnels de la finance en précommande pour Noël devrait être le T-shirt ou la casquette « Dow 50K ».
Et oui, ça « claque » plus que « SP 7K », car il n’y a pratiquement plus aucun suspense sur le test des 7 000 points d’ici que la Fed baisse pour la troisième fois consécutive ses taux directeurs.
Les optimistes se focalisent désormais sur les exploits du Dow Jones, car depuis le coup d’euphorie de lundi, le S&P 500 et le Nasdaq font quasiment du surplace.
Les valorisations des géants américains de la tech, tout particulièrement ceux liés à l’IA, commencent à interpeller certains gérants très en vue à Wall Street, à commencer par Michael Burry, l’homme du Big Short.
Il s’alarme non seulement du fait que les valeurs de la tech présentent toutes les caractéristiques d’une bulle de type dot.com, mais également de l’émergence de pratiques comptables douteuses, voire frauduleuses, qui commencent à rappeler les périodes de surendettement massif de l’an 2000 pour les télécoms.
Burry pointe l’endettement hors bilan de Meta, le ratio dette/ventes d’Oracle (520 %) et des embellissements artificiels du bilan qui évoquent ceux mis en œuvre par ENRON (la plus grande faillite frauduleuse de l’histoire – avec les fonds Madoff – survenue à l’automne 2001).
Mais comme Burry a parié 1 Md$ à la baisse sur Palantir et Nvidia (qui va fournir des centaines de milliards de dollars de serveurs à Oracle pour le compte d’OpenAI), ce n’est pas étonnant qu’il cherche à « faire peur » en exposant des arguments destinés à déstabiliser les investisseurs.
Beaucoup s’empressent cependant de rappeler que depuis 2007/2008, Michael Burry a prédit plusieurs effondrements boursiers qui ne se sont pas produits, et ils s’appuient sur le retour en force du mantra « cette fois, c’est différent ».
Et sans se prononcer sur la probabilité du krach imminent – ou d’ici quelques mois tout au plus –, il est clair que quelque chose est vraiment devenu différent en trois ans pour Meta, Microsoft, Google, Amazon et Oracle.
Ces cinq titans de Wall Street ont certes acquis le statut d’Alpha et d’Omega du marché américain : le Nasdaq-100 est devenu un « Nasdaq-10 », et le S&P 500 un « S&P 50 » (les 450 valeurs restantes ne pesant que 20 % de l’indice large), mais avec les investissements massifs réalisés ces 12 derniers trimestres dans les data centers (cloud et IA générative), il semblerait que la profitabilité apparente demeure étonnamment élevée, comme si les CAPEX n’affectaient pas la « top line ».
Les cinq ont recouru à la même astuce comptable : prolonger – fictivement – l’amortissement de leurs serveurs de 3 à 6 ans entre 2022 et 2024.
Cela figure en toutes lettres dans les bilans, mais au milieu de colonnes de chiffres que personne ne lit : en clair, 400 Mds$ sont dépensés chaque année en cartes graphiques Nvidia qui deviennent obsolètes au bout de 12 mois (ce sera aussi le cas pour les Blackwell, alors que la génération suivante est déjà en cours de conception).
Mais elles sont amorties comme si elles allaient générer des revenus pendant six ans… alors que les investissements n’ont pas été – et ne seront jamais – couverts par des recettes correspondant aux sommes dépensées.
Selon Burry, d’ici 2028, cette manipulation (fraude ?) comptable aura gonflé sur cinq ans les bénéfices déclarés de 170 Mds$ pour le top 5 : des profits purement fictifs.
Un peu comme une banque qui en 2025 – malgré la flambée du taux de défaut sur son encours de prêts, à des niveaux plus revus depuis 2008 – réduirait drastiquement ses provisions pour pertes, faisant gonfler ses bénéfices alors qu’elle perd de plus en plus d’argent et voit exploser les risques.
Meta extrait par exemple 2,9 Mds$ « d’économies » en prétendant que ses serveurs d’IA ont une durée de vie de 5,5 ans… et masque de surcroît l’ampleur de son endettement avec le recours à des SPV (des sociétés-écrans qui supportent fiscalement la charge d’une dette qui sort ainsi du bilan du « partenaire », ce qui embellit artificiellement son gearing et rassure ses créanciers).
Et tout va s’accélérer d’ici 2030 : il est question de 7 000 Mds$ de dépenses liées à l’IA et personne ne questionne le coût réel, ni comment de telles sommes (un quart du PIB américain de 2025) vont être « couvertes » par des abonnements, des commandes du Pentagone ou de la NSA, ou des contrats de prestation fournis aux entreprises.
Songez qu’OpenAI a déjà dévoilé 1 400 Mds$ d’investissements dans de nouvelles capacités de calcul (deux fois le PIB de la Suisse), alors que le chiffre d’affaires actuel est de 20 Mds$ : il va falloir engranger des revenus à hauteur de 650 Mds$ d’ici 2030, sous peine de voir son modèle s’effondrer. Cela représente une multiplication par 32 en cinq ans.
Mais un autre écueil majeur va contrarier de façon quasi insurmontable les prévisions d’activité des GAFAM + Nvidia et Oracle : il va manquer entre 40 et 45 GW d’énergie pour faire tourner tout ce matériel à plein régime d’ici 2028 (c’est 10 GW de plus qu’il y a un an). Il faudra délivrer d’ici trois ans 57 GW aux data centers, contre 15 actuellement. L’Amérique aurait donc besoin de l’équivalent de 30 nouveaux réacteurs nucléaires de type EPR (1 400 MW) opérationnels d’ici 2028.
Si jamais leur construction était lancée dans un contexte de procédures d’urgence (autorisations administratives balayant toute contestation, étude des sols et fondations réalisée en un temps record, construction au pas de charge à la chinoise, et zéro retard de chantier), il faudrait compter entre six et sept ans avant que le premier kilowatt ne soit rendu disponible.
Il va falloir recourir d’ici là à des procédés « pilotables » plus classiques (gaz, fioul), relancer les centrales au charbon comme en Allemagne : l’IA va devenir un gouffre à énergies fossiles et produire des mégatonnes de CO₂ (plusieurs fois la pollution totale de la France… mais heureusement, nos ZFE vont sauver la planète !).
Et un autre problème se poserait alors, qui relève déjà de l’insoluble : l’état du réseau de distribution électrique américain n’est absolument pas en capacité physique de délivrer les gigawatts supplémentaires obtenus via la mobilisation de toutes les sources d’énergie dont disposent les Etats-Unis.
A 1,25 Md$ par GW transporté, cela représente 60 Mds$ de coût d’exploitation supplémentaire pour le réseau électrique. D’où les GAFAM, les banques américaines puis l’Etat fédéral vont-ils sortir d’ici 2030 de quoi construire pour 7 000 Mds$ de data centers + 500 Mds$ de réacteurs nucléaires, + des centaines de milliards pour la mise à niveau du réseau ?
La Fed va-t-elle imprimer 10 000 Mds$ dans les cinq ans qui viennent ? Et avec quels bénéfices les emprunteurs d’aujourd’hui comptent-ils rembourser de telles sommes si en 2028 il manque 40 à 45 GW d’énergie ?
Oui, vraiment, cette fois, il faut que « ce soit différent » !
L’argent magique, la Fed sait le fabriquer ; le surendettement, les entreprises savent le masquer ; mais les dizaines de GW manquants… les GAFAM, Nvidia, OpenAI, la Maison-Blanche comptent les faire sortir d’où ?

3 commentaires
Et il n’est pas tenu compte des autres usages électriques.
Combien de GW en plus si les Américains se convertissent à la voiture électrique ?
EXCELLENT ARTICLE !
Merci, bonnes informations. « On » s’en doutait un peu, mais l’article le démontre sobrement. En Europe la France serait donc bien placée et non l’Allemagne, de quoi attiser des actions hostile. Question saugrenue, cette demande d’électricité va-t-elle rentabiliser les énergie « renouvelables » ?