La Chronique Agora

Energie vs. IA : où iront les investissements ?

Discuter avec ChatGPT ou pouvoir recharger votre voiture électrique ? Une chose est certaine : il faudra choisir. 

L’IA a beau être présentée comme le « nouvel Internet » qui débloquera la croissance mondiale et nous permettra d’entrer dans un nouveau super-cycle de création de richesse, elle est pour l’instant plus un poste de coûts que de profits pour notre économie.

Derrière un Nvidia qui engrange des profits historiques, il se trouve des Google, Facebook, Microsoft et une myriade de start-ups surcapitalisées qui investissent des centaines de milliards de dollars pour ne pas risquer de rater le coche.

Mais ces dépenses d’investissement – car ce sont bien des dépenses – sont in fine payées par une ponction sur l’économie réelle.

Les montants investis par Google et Facebook sont financés par la vente d’espaces publicitaires, qui sont payés par des entreprises qui vendent des services et des biens tangibles.

L’argent investi par Microsoft provient des dépenses d’équipement informatique de milliards de particuliers, de PME, de grands groupes et d’administrations publiques. Et l’argent des start-ups de l’IA, qui n’ont encore souvent ni produits ni services, provient des poches d’investisseurs optimistes qui l’ont durement gagné par le passé.

Tout cet argent, une fois dépensé n’existe plus pour ces clients. Et par définition, la somme des profits de Nvidia, pourtant placé comme le grand gagnant de ce gigantesque transfert de richesse, est inférieure à la somme des dépenses engagées.

La valse des milliards ne pourra durer longtemps à ce rythme. L’IA va devoir rapidement prouver sa capacité à créer plus de richesse qu’elle n’en consomme, sous peine d’être abandonnée comme nombre de technologies (pourtant prometteuses) avant elle.

Plus urgent encore, si l’argent peut s’imprimer en appuyant sur quelques touches de clavier, il n’en est pas de même pour le prochain facteur limitant : l’énergie. Si l’impression 3D, les drones, ou encore le métavers étaient des bulles boursières dont l’empreinte sur le monde réel était somme toute faible, il n’en est pas de même pour l’IA.

Déjà, l’essor des centres de données dédiés à l’intelligence artificielle met les réseaux électriques sous tension. Dans les prochains mois, producteurs et opérateurs de réseau vont devoir choisir entre répondre aux besoins des particuliers et de l’industrie traditionnelle, ou de l’IA.

Que préfèreront les agents économiques ? Discuter avec ChatGPT ou pouvoir recharger leur voiture électrique ? Une chose est certaine : il faudra choisir.

Pour ceux qui investissent sans distinction dans les « valeurs IA », gare au coup de balai qui se profile. Gaspiller des dollars était une chose – c’est même un grand classique de Wall Street. Gaspiller des MWh en est une autre.

La facture tangible de l’IA

Passons rapidement sur les montants colossaux que les entreprises annoncent consacrer à l’investissement dans l’IA. Ils font les gros titres de la presse et expliquent comment Nvidia, qui fournit les puces les plus puissantes du secteur, parvient à augmenter son chiffre d’affaires de 262% sur un an et réaliser 14 Mds$ de bénéfices en un trimestre (+630% sur douze mois).

Quand l’argent coule à flot, toutes les exubérances sont permises. L’électronicien réalise une marge de 78% sur ses ventes de puces dédiées à l’IA, et le robinet financier pourrait se réduire de 30% à 50% sans que son modèle d’affaires soit remis en question.

En d’autres termes, les dépenses d’investissement sur les puces d’IA pourraient être réduites par deux ou trois, à la suite d’un simple revirement du sentiment de marché. Si les clients décidaient que les puces ne valent que 15 000 $ ou 20 000 $ au lieu de 40 000 $, Nvidia n’aurait d’autre choix que d’adapter ses grilles tarifaires… et la diffusion de l’IA pourrait reprendre son cours – les superprofits de l’électronicien en moins.

Mais tout n’est pas aussi virtuel que ces échanges de dollars.

L’IA est extrêmement énergivore, tant lors de son élaboration que son utilisation. Générer une image par une intelligence artificielle consomme autant d’énergie que la recharge d’un smartphone. Selon le spécialiste OVH, poser une question à ChatGPT ou Copilot nécessite dix fois plus d’électricité qu’une recherche Google.

En 2023, la consommation des nouveaux centres de données dédiés à l’IA a atteint les 6 GW – de quoi engloutir quatre fois la puissance maximale du futur EPR de Flamanville. La demande supplémentaire devrait être du même ordre de grandeur en 2024, et il se murmure que la puissance unitaire des futurs data centers des géants du numérique devrait bientôt passer la barre du GW. Un tel niveau de consommation reviendrait à dédier un réacteur nucléaire à chaque nouveau data center.

Selon l’Agence internationale de l’énergie, la demande en électricité des centres de données devrait passer de 2% de la consommation totale de l’humanité en 2022 à 6% en 2026 – un triplement à contre-courant de tous les efforts de sobriété énergétique.

Disons-le clairement : il sera impossible de construire suffisamment d’éoliennes et de panneaux solaires, même couplés à des capacités de stockage, pour alimenter ces monstres du numérique.

Quand les belles promesses volent en éclat

Au printemps, l’énergéticien Georgia Power a demandé une autorisation urgente pour construire 1,4 GW de puissance électrique supplémentaire.

Poussé par la demande croissance des data centers, il prévoit même d’acheter jusqu’à 1 GW à ses concurrents. Urgence oblige, pas question de se tourner vers les renouvelables. Cette électricité sera produite avec la technologie la plus polluante qui soit : les centrales à charbon. Pour l’énergéticien, l’avenir est radieux et la consommation d’électricité devrait être multipliée par 16 d’ici 2030… et tant pis pour la transition énergétique et les beaux discours des géants du numérique.

Mais même ce retour aux technologies du siècle dernier ne permettra pas nécessairement de répondre aux besoins en électricité du numérique.

Le français RTE, qui gère l’acheminement de l’électricité sur notre territoire, a déjà tiré la sonnette d’alarme. En additionnant la consommation de tous les projets de data centers qui lui ont été déposés, le besoin en électricité supplémentaire dépasse les 8 GW de puissance instantanée, pour 15 à 20 TWh par an en 2030.

Il est impossible de répondre à cette demande dans l’immédiat. Il faudrait construire, pour ce seul usage, 5 nouveaux EPR ou l’équivalent en centrales à flamme. Même si nous disposions par magie de cette capacité de production, l’acheminement se heurterait, lui aussi, aux autres usages.

Le gestionnaire de réseau a récemment alerté le gouvernement sur le risque de conflit d’usage. Les data centers demandent des raccordements au réseau qui sont incompatibles avec l’électrification de notre économie (transport urbain, bornes de recharge de véhicules électriques, nouveaux logements).

Pour RTE, il faudra choisir, et le gestionnaire s’est déjà déclaré incompétent pour arbitrer entre les différents demandeurs.

Aux USA comme en Europe, la diffusion de l’IA est en train de se heurter pour la première fois à des limites physiques. La solution politique à cette pénurie énergétique annoncée dépendra évidemment des sensibilités : les économies libérales laisseront faire le marché, tandis que les économies administrées décideront des usages prioritaires.

Mais, quel que soit l’arbitrage choisi, l’IA ne pourra remporter le bras de fer que si elle parvient à prouver qu’elle peut créer plus de richesse que les activités qu’elle forcera à la sobriété. Et à ce sujet, tout est encore à faire.

Recevez la Chronique Agora directement dans votre boîte mail

Quitter la version mobile