L’intelligence artificielle (IA) est de plus en plus présente dans notre vie quotidienne, mais son fonctionnement nécessite une quantité considérable d’électricité. Les data centers, qui abritent les serveurs et les processeurs nécessaires au fonctionnement de l’IA, consomment une grande quantité d’énergie. Cependant, la gestion de cette consommation d’énergie est devenue un défi majeur pour les opérateurs de data centers. En effet, les nouvelles techniques de traitement de l’IA nécessitent une quantité d’énergie qui dépasse souvent les capacités des data centers, ce qui les oblige à réduire leur consommation d’énergie de jusqu’à 30 %.
Le problème de la consommation d’énergie des data centers
Les data centers consomment une grande quantité d’énergie en raison de la puissance requise pour faire fonctionner les processeurs et les serveurs. Les processeurs graphiques (GPU) utilisés pour l’IA sont particulièrement gourmands en énergie. Lorsque les GPUs sont utilisés pour des tâches de traitement de l’IA, ils consomment une grande quantité d’énergie, ce qui peut entraîner des pics de consommation d’énergie. Ces pics de consommation d’énergie sont difficiles à gérer pour les opérateurs de data centers, qui doivent payer pour stocker temporairement de l’énergie ou réduire l’utilisation des GPUs. Cela réduit le rendement des investissements dans les chips coûteuses. Selon Jensen Huang, PDG de Nvidia, « il y a tellement de puissance gaspillée dans ces usines d’IA. Chaque watt non utilisé est un revenu perdu ».
La solution de Niv-AI
Niv-AI, une start-up israélienne, a développé une solution pour optimiser la consommation d’énergie des data centers. La start-up a levé 12 millions de dollars en financement initial pour développer des capteurs qui mesurent avec précision la consommation d’énergie des GPU et des outils pour gérer cette consommation d’énergie de manière plus efficace. Les capteurs de Niv-AI peuvent détecter la consommation d’énergie à l’échelle du milliseconde, ce qui permet aux opérateurs de data centers de comprendre les profils de consommation d’énergie spécifiques aux différentes tâches de deep learning. L’objectif est de développer des techniques d’atténuation qui permettent aux data centers de débloquer plus de leur capacité existante. Les ingénieurs de Niv-AI prévoient de développer un modèle d’IA pour prédire et synchroniser les charges de puissance à travers le data center, ce qui agira comme un « copilote » pour les ingénieurs de data center.
Les perspectives d’avenir
Niv-AI prévoit de déployer son système dans une poignée de data centers américains dans les six à huit prochains mois. L’idée est attrayante, car les hyperscalers qui tentent de construire de nouveaux data centers sont confrontés à des difficultés d’utilisation des terres et de chaîne d’approvisionnement. Les fondateurs de Niv-AI considèrent leur produit final comme une « couche d’intelligence » manquante entre les data centers et le réseau électrique. Selon Tomer Timor, PDG de Niv-AI, « le réseau électrique a peur que les data centers consomment trop de puissance à un moment précis. Le problème que nous examinons est un problème avec deux côtés de la corde. D’une part, nous essayons d’aider les data centers à utiliser plus de GPU et, espérons-nous, à faire plus de l’énergie qu’ils paient déjà. D’autre part, vous pouvez également créer des profils de puissance plus responsables entre les data centers et le réseau électrique ». La solution de Niv-AI a le potentiel de révolutionner la façon dont les data centers gèrent leur consommation d’énergie, ce qui pourrait avoir un impact significatif sur l’industrie de l’IA et au-delà.