Les budgets pour les infrastructures explosent avec l'IA

À l'origine d'une transformation sans précédent des centres de données, les dépenses d'investissement dans l'IA devraient plus que doubler, passant de 430 milliards de dollars en 2024 à 1,1 billion (mille milliards) de dollars d'ici à 2029.
La demande mondiale massive de technologies d'IA pousse les centres de données à augmenter leurs dépenses en serveurs et en infrastructures d'alimentation et de refroidissement. Si bien que, selon le groupe Dell'Oro, les dépenses CapEx des centres de données atteindront 1,1 billion (mille milliards) de dollars d'ici à 2029, contre 430 milliards de dollars en 2024. Une grande partie de cette croissance est liée à l'IA. Selon Baron Fung, analyste chez Dell'Oro, les entreprises consacrent aujourd'hui environ 35 % du budget CapEx de leurs centres de données à des serveurs accélérés et optimisés pour l'IA, contre 15 % en 2023. Et cette proportion passera à 41 % d'ici à 2029. Pour les hyperscalers, l'investissement dans l'IA est encore plus élevé, puisqu'ils consacrent déjà 40 % de leur budget à des serveurs accélérés. Ces serveurs coûtent beaucoup plus cher que les serveurs traditionnels, dont le prix oscille généralement entre 7 000 et 8 000 dollars, contre 100 000 et 200 000 dollars pour les serveurs d'IA, « surtout lorsqu'ils sont équipés des derniers processeurs Nvidia », comme l'a précisé M. Fung. « De ce fait, les quatre entreprises Amazon, Google, Meta et Microsoft représenteront à elles seules près de la moitié des investissements mondiaux dans les centres de données cette année », a-t-il affirmé.
« Dans un premier temps, étant donné le coût élevé et l'utilisation potentiellement faible de l'infrastructure d'IA dans les centres de données privés, la plupart des charges de travail d'IA seront exécutées dans le cloud public plutôt que sur site », a déclaré M. Fung. « À mesure que les entreprises sauront mieux comment utiliser ces charges de travail d'IA, elles pourront les ramener sur site », a-t-il avancé. « Ces projections tiennent compte des récentes avancées en matière d'IA et d'efficacité des centres de données », a aussi indiqué l'analyste de Dell'Oro. Par exemple, le modèle d'IA open source de l'entreprise chinoise DeepSeek a montré qu'un LLM peut produire des résultats de très haute qualité à un coût très faible avec quelques changements architecturaux astucieux dans le mode de fonctionnement des modèles. Ces améliorations devraient être rapidement reprises par d'autres entreprises d'IA. « Beaucoup d'entre elles essaient de produire des modèles plus efficaces », a constaté M. Fung. « Elles font beaucoup d'efforts pour réduire les coûts et rendre les modèles plus efficaces. De plus, les hyperscalers conçoivent et construisent leurs propres puces, optimisées pour leurs charges de travail d'IA. » Dell'Oro prévoit que le marché des accélérateurs atteindra à lui seul 392 milliards de dollars d'ici à 2029. À cette date, les accélérateurs personnalisés dépasseront ceux disponibles sur le marché, tels que les GPU.
Le réseau doit aussi se muscler
Le déploiement de serveurs dédiés à l'IA a également un impact sur la mise en réseau, l'alimentation et le refroidissement. Par conséquent, les dépenses liées à l'infrastructure physique des centres de données (Data Center Physical Infrastructure, DCPI) augmenteront aussi, mais à un rythme plus modéré, avec une croissance annuelle de 14 % pour atteindre 61 milliards de dollars en 2029. « Les déploiements de DCPI sont une condition préalable au support des charges de travail d'IA », a déclaré Tam Dell'Oro, fondateur du groupe Dell'Oro, dans un rapport. Le cabinet d'études a revu à la hausse ses perspectives dans ce domaine, car les résultats réels pour 2024 ont dépassé ses attentes, et la demande s'étend des fournisseurs de services cloud de niveau 1 aux fournisseurs de services cloud de niveau 2. Par ailleurs, les gouvernements et les opérateurs de télécommunications de niveau 1 s'impliquent dans l'expansion des centres de données, ce qui en fait une tendance à long terme.
L'IA aura un impact considérable sur les réseaux. Le marché des adaptateurs de réseau Ethernet pour la prise en charge des réseaux dorsaux dans les clusters de calcul d'IA devrait connaître un taux de croissance annuel composé de 40 % d'ici à 2029. L'IA est également très gourmande en énergie. Selon Dell'Oro, aujourd'hui, la densité de puissance moyenne d'un rack est d'environ 15 kilowatts par rack, alors que les charges de travail de l'IA nécessitent de 60 à 120 kilowatts par rack. D'autres études confirment ces prévisions de croissance. Par exemple, selon les chiffres du cabinet d'études IDC, la consommation d'énergie des centres de données liée à l'IA devrait augmenter de 45 % par an, pour atteindre 146 térawattheures d'ici à 2027. Selon McKinsey, un centre de données de 30 mégawatts était considéré comme volumineux il y a dix ans. « Aujourd'hui, une installation de 200 mégawatts est considérée comme normale », a écrit McKinsey dans un rapport publié en décembre.
Le refroidissement liquide va s'imposerEn raison de l'IA, les densités de puissance moyennes ont plus que doublé au cours des deux dernières années, passant de 8 à 17 kilowatts par rack, et devraient atteindre 30 kilowatts d'ici à 2027, selon McKinsey. L'entraînement d'un modèle d'IA comme ChatGPT peut consommer plus de 80 kilowatts par rack, et la dernière puce de Nvidia et ses serveurs nécessitent des densités de rack allant jusqu'à 120 kilowatts. Par ailleurs, les systèmes actuels de refroidissement par air ont une limite supérieure d'efficacité d'environ 50 kilowatts par rack, ce qui explique pourquoi les opérateurs de centres de données commencent à adopter le refroidissement liquide. Selon un rapport d'IDC publié en septembre, la moitié des entreprises disposant de racks à haute densité utilisent désormais le refroidissement liquide comme solution de refroidissement prédominante.
Selon le rapport de l'Uptime Institute, 22 % de tous les datacenters utilisent aujourd'hui le refroidissement liquide, et 61 % l'envisagent. Pour les grands centres de données, ceux qui disposent de 20 MW ou plus, 38 % utilisent déjà le refroidissement liquide direct. « L'an dernier a été une année de transition pour le refroidissement liquide », a expliqué Lucas Beran, directeur du marketing produit chez Accelsius, une entreprise spécialisée dans le refroidissement liquide. Jusqu'à récemment, M. Beran était directeur de recherche pour l'infrastructure physique des centres de données chez Dell'Oro. En 2023, le marché de l'infrastructure physique des centres de données a connu une année faste, les entreprises ayant achevé les plans de numérisation décidés dans le contexte de la pandémie de Covid-19. « En 2024, les changements de conception ont commencé à se matérialiser dans les nouvelles constructions de centres de données », a-t-il ajouté. « Pour toute nouvelle installation, il faut penser au refroidissement liquide, même s'il ne sera pas utile dès le premier jour, car c'est une solution d'avenir. » Selon lui, cette année, le refroidissement liquide sera axé sur la mise à l'échelle. « Nous avons compris ce que nous voulions faire, nous avons une bonne idée de la manière de le faire et nous allons commencer à déployer l'infrastructure à grande échelle », a-t-il annoncé. « La confiance dans ces déploiements de refroidissement liquide augmentera, ce qui aidera l'industrie à en accélérer l'adoption. »
Edition du 21/02/2025, par Maria Korolov, IDG NS (adaptation Jean Elyan)
Sur le même sujet