10/05/2025 La bataille pour de nouveaux  » centres de données »

Derrière ChatGPT et les IA génératives, se cachent des data centers XXL, des monstres de calcul hyper-énergivores, qui devraient à eux seuls accaparer 4 % de l’électricité mondiale en 2026. Une trajectoire intenable selon les spécialistes, sur fond de déclarations politiques et technologiques tonitruantes.

Dans le monde de la tech, la guerre est déclarée. Derrière les looks décontractés, l’esprit start-up, les progrès stupéfiants, les applis amusantes, se joue aujourd’hui une bataille sans merci pour mettre la main sur les énormes ressources énergétiques nécessaires au bon fonctionnement des IA génératives qui sont en train d’envahir notre quotidien.

Dès le lendemain de son investiture, le 21 janvier, Donald Trump annonçait le “projet Stargate”https://fr.wikipedia.org/wiki/Stargate_Project initié par OpenAI, visant à investir 500 milliards de dollars d’ici à 2029 pour construire aux États-Unis vingt data centers XXL dédiés à l’IA, et toute l’infrastructure énergétique nécessaire pour alimenter ces nouveaux monstres de calcul.

Dans le même temps, une start-up chinoise, DeepSeek, DeepSeek | 深度求索provoquait une débâcle boursière dans la tech américaine avec son agent conversationnel très performant, et a priori beaucoup plus sobre que le ChatGPT d’OpenAI…

La question de l’électricité

Car le nerf de la guerre des nouvelles IA, c’est bien la question bassement matérielle de l’électricité. D’après les calculs réalisés cet automne par des chercheurs de la start-up Hugging Face de l’université Carnegie-Mellon, la génération d’un texte serait dix à vingt fois plus consommatrice d’énergie que les tâches basiques de classification et de reconnaissance automatique – 

La production d’une image artificielle est encore bien plus énergivore : cela équivaut à décharger la moitié de la batterie de son téléphone portable – on n’ose imaginer le bilan des prochains films conçus par ces robots. “Les modèles d’IA générative sont beaucoup plus grands que les IA de reconnaissance visuelle, on parle de centaines de milliards de paramètres contre des millions, justifie un chercheur à l’université de Sydney. Et à la différence de la classification, il faut ici de nombreuses itérations de calcul pour produire une réponse.

Aujoud’hui, chaque jour, dans le monde, 500 millions d’utilisateurs des réseaux informatiques dont ils disposent gratuitement ou pour des prix dérisoires, mobilisent des milliers de cartes graphiques de 400 à 700 watts de puissance chacune, qu’il s’agit d’alimenter en données et en électricité d’une manière ou d’une autre. 

Cette électricité n’est pas gratuite. Elle fait appel à toutes les sources disponibles, centrales à charbon comme réacteurs nucléaires à fission…en attendant les capteurs d’énergie solaire à grande échelle et la fusion nucléaire. Elle concurrence les besoins de chauffage et d’éclairage dont la vie quotidienne ne peut plus se passer.

Les données proviennent de « data centers » ou centres de données.

Il s’agit d’infrastructures composées’un réseau d’ordinateurs et d’espaces de stockage. Cette infrastructure hautement sécurisée est utilisée par les entreprises pour organiser, traiter, stocker et entreposer de grandes quantités de données.

Les data centers sont des éléments nouveaux qui sont arrivés dans l’équation électrique avec une vitesse ultrarapide, personne ne l’a vu venir, c’est très difficile de les intégrer au réseau. En France, il faut 5 à 7 ans pour faire un branchement haute tension”, précise un spécialiste. Ces nouvelles installations dites “hyperscale” mobilisent parfois plus de 1 000 mégawatts de puissance, l’équivalent de la puissance d’un réacteur nucléaire…

L’Agence internationale de l’énergie, l’AIE, multiplie depuis un an les alertes et annonce un nouveau rapport pour avril. “Le moment est venu pour les décideurs politiques et l’industrie de collaborer à une vision pour répondre à cette source de demande d’électricité en croissance rapide, de manière sûre et durable”, déclarait en décembre son directeur exécutif. 

Il faut dire que les projections de l’AIE ne peuvent qu’inquiéter. La consommation des data centers devrait doubler en 2030 et atteindre plus de 1 000 téra­wattheures… l’équivalent de 1,5 fois les besoins énergétiques de la France. Aux États-Unis, ces centres de calcul pourraient mobiliser près de 10 % de l’électricité américaine. En Europe et concerrnant la seule Europe une directive européenne en cours de signature devrait imposer la publication de ces chiffres… en Europe.

Cependant, comme preuve que le problème commence à être pris au sérieux, les initiatives se multiplient ces derniers mois : concours de sobriété à l’image du Frugal AI challenge achevé début février au sommet pour l’IA de Paris ; création d’outils d’évaluation d’impact des algorithmes (CodeCarbon, Carbon ­Tracker…) ; propositions de nouveaux labels énergétiques délivrés aux IA (Green Algorithms, AI ­Energy Star)…

Ce n’est vraiment pas réaliste de donner accès pour tout le monde à d’énormes modèles de milliers de milliards de paramètres très consommateurs en calcul”, selon la responsable du développement durable à IBM. “On a eu trop tendance à surdimensionner les IA génératives pour en faire des couteaux suisses capables de répondre aux questions les plus compliquées, confirme le directeur du Digital Lab de CentraleSupélec. Il faut revenir à des modèles plus adaptés aux besoins de chacun ; pas besoin de prendre un gros 4×4 SUV, le vélo c’est parfois mieux.” 

De fait, dans les laboratoires, les chercheurs entament de grands travaux d’élagage en supprimant des neurones artificiels, ou même des couches entières de neurones finalement jugées non nécessaires ; les équipes de Nvidia sont récemment parvenues à réduire un modèle de 15 milliards de paramètres à 8 milliards, avec de substantielles économies d’énergie. Tout l’art des ingénieurs consiste dorénavant à alléger les modèles sans trop perdre en qualité de résultats.

Il est d’ailleurs possible de transférer des connaissances des grands modèles vers les petits, un procédé appelé “distillation”. “Avec des architectures mieux pensées, des données d’entraînement mieux sélectionnées, en étant moins dans la force brute et en accélérant la convergence, on obtient des modèles réduits très performants”, assure François Terrier. 

De même “Au lieu de paramètres codés en format 32 ou 16 bits, nous les codons maintenant en 8 bits, cela réduit la taille du modèle ; même s’il faut faire de subtils compromis entre la ­précision et l’efficacité de calcul.” C’est ce bricolage astucieux qui a notamment contribué à la saisissante sobriété du modèle chinois DeepSeek. 

Du coté des hardware

Du côté du hardware, les industriels sont lancés dans une course permanente à l’efficacité . En parallèle à la loi de Moore, la “loi de Koomey” veut que la quantité de calculs par joule consommée double tous les 18 mois. Et il faut le reconnaître, les spécialistes des composants dédiés à l’IA font très forts : “Notre dernière génération de carte graphique Blackwell a une efficacité énergétique 25 fois supérieure à la précédente, tout en étant 30 fois plus rapide”, selon le directeur des “data centers accélérés” chez Nvidia. Autant de composants brûlants qu’il va cependant falloir refroidir à moindre coût énergétique : “À Microsoft, nous explorons l’idée de faire circuler le liquide de refroidissement dans des microcanaux directement intégrés dans la conception des puces”, annonce Régis Lavisse.

Jusqu’à quand pourront-ils tenir ce rythme effréné ? “Je pense que les gains d’efficacité à portée de main ont déjà été récoltés, les améliorations des composants actuels sont en train de saturer face à l’explosion de la complexité du calcul, il faudrait changer d’approche”, lâche Naveen Verma, chercheur à l’université de Princeton. “On sera tous bientôt à zéro en termes d’efficacité des composants dans les data centers”, confirme un de ses collgues Grégory Lebourg. 

Beaucoup de spécialistes des processeurs planchent en ce moment sur la possibilité de limiter les très énergivores transferts de données entre mémoires et unités de calcul. “Nous avons mis au point une puce qui exécute ces calculs d’IA directement dans la mémoire, une puce qui utilise également des signaux analogiques : cette approche permet d’être considérablement plus efficace que les cartes graphiques numériques actuelles”,

Les propositions fourmillent : calcul en mémoire, analogique, réversible… mais aussi calcul neuromorphique cherchant à imiter le fonctionnement du cerveau humain, dont la modique puissance de 20 watts étonne les informaticiens. “Ces systèmes reposent sur un traitement événementiel, à l’image de nos neurones : ils ne traitent les informations que lorsque les événements se produisent, cela évite beaucoup de calculs inutiles”,

Les programmeurs doivent encore s’adapter et les data centers ne sont pas prêts à se convertir au neuro­morphique, “mais plusieurs de ces composants sont déjà dans les fonderies de silicium et devraient débarquer dans les applications mobiles d’ici à trois ans, on parle de gains énergétiques d’un facteur 1000”,

D’autres sont très sceptiques : “Nos travaux montrent que les gains d’efficacité en IA ont surtout servi à faire encore plus de calculs, la consommation d’énergie continuant d’augmenter fortement, selon la responsable de l’IA à l’université Paris-Saclay, qui craint un effet rebond. La frugalité prônée dans l’IA n’est pas synonyme de sobriété.”“Pour le moment, je ne vois pas de ralentissement, pas d’auto­régulation… bien au contraire”,

Au début des années 2000, il y avait les mêmes craintes d’une explosion de la consommation d’énergie pendant le boom des ordinateurs PC, mais l’augmentation a en réalité été contenue grâce aux innovations”, veut rassurer une responsable de l’IA chez IBM. “Les défis sont là, mais il n’y a pas de blocage technique ou physique incontournable”,“Les chercheurs sont mobilisés. Ce n’est pas impossible qu’on trouve une solution”,

Laisser un commentaire