Tribune d‘Adam Levine, Directeur commercial de Data4
L’évolution de l’IA offre à l’industrie des data centers une opportunité de prospérer, à condition de bien s’y prendre.
L’évolution de l’intelligence artificielle (IA), en particulier des produits d’IA générative tels que ChatGPT, a fait la une des médias depuis un an. Au-delà de son potentiel de disruption ou d’amélioration de la vie quotidienne – un débat que je laisserai à d’autres – un impact souvent négligé de l’IA, et en fait de toute adoption technologique à grande échelle, est celui sur les centres de données.
Ayant connu l’introduction et l’adoption rapide des smartphones et du cloud computing, les centres de données sont rompus à l’adoption d’une approche proactive à l’égard des nouvelles technologies. Et comme l’IA est encore relativement immature, c’est un moment crucial pour les professionnels des data centers de réfléchir à la manière dont ils vont répondre à l’essor imminent de l’IA.
S’adapter aux nouvelles charges de travail
Nous pouvons classer l’IA en quatre catégories principales : le traitement du langage naturel (NLP), la vision par ordinateur, le machine learning et la robotique. Si la robotique est particulièrement sensible à la latence et nécessite généralement des solutions informatiques de pointe à proximité immédiate du processus à gérer, nous pensons que les trois premières catégories vont réellement faire grimper la demande de solutions en matière de data centers.
Et répondre à cette demande croissante ne sera pas une mince affaire. Nous devons non seulement réfléchir aux implications physiques de l’hébergement d’un grand nombre de serveurs pour répondre à une charge de travail plus dense, mais aussi à la manière d’intégrer de nouvelles techniques – telles que le refroidissement liquide et le refroidissement immersif – pour lutter contre la chaleur générée par ces serveurs. De plus, les charges ne seront pas constantes. Nous prévoyons d’énormes pics à tout moment, alors qu’historiquement, les data centers géraient des charges raisonnablement plates et constantes.
L’un des plus grands défis réside dans le fait que l’IA n’est pas une entité homogène, mais plutôt une technologie qui se divise en deux phases distinctes : la formation et l’inférence. J’ai tendance à comparer cette distinction à celle d’un athlète : il se prépare d’abord à une course (entraînement à l’IA), avant de se rendre à une compétition pour mettre ses exercices à l’épreuve (inférence de l’IA).
Les centres de données performants apprendront à s’adapter aux deux. L’entraînement à l’IA nécessitera de se concentrer moins sur la résilience et la redondance, et davantage sur les coûts, le PUE et l’efficacité générale. L’inférence, en revanche, est très sensible à la latence et nécessitera la proximité d’un centre ville pour garantir des temps de réponse rapides pour les interfaces utilisateur et les applications.
La perspective réglementaire
La difficulté pour les régulateurs est de ne pas savoir exactement comment l’IA va évoluer. Elle n’en est qu’à ses balbutiements et, à juste titre, les régulateurs veulent couvrir tous les risques potentiels. La loi européenne sur l’IA en est un bon exemple, les régulateurs classant les applications en quatre niveaux de risque : risque inacceptable, risque élevé, risque limité et risque minime ou nul. Par ailleurs, la directive NIS2 va élargir le nombre de secteurs censés se conformer à ses réglementations initiales en matière de cybersécurité, y compris désormais la sphère numérique.
Le défi pour de nombreuses industries, y compris les data centers, sera d’assurer la conformité avec des réglementations en constante évolution. L’IA progresse plus rapidement que tout ce que nous avons vu ces dernières années, et les centres de données ne manqueront pas d’en ressentir les effets, car les régulateurs continuent d’actualiser les paramètres et de définir de nouvelles limites de risque.
Remédier aux principales pénuries
Il est bien connu que la valeur stratégique des microprocesseurs les a rendus sujets à des restrictions commerciales imposées par les gouvernements. Avec l’accélération de l’adoption de l’IA et les charges de travail considérables que ces applications exigent, les unités de traitement graphique (GPU) se font rares.
L’augmentation de la production n’est pas vraiment une solution facile – en fait, des données récentes ont montré que la construction d’une usine de puces de deux nanomètres aux États-Unis ou en Europe coûterait environ 40 milliards de dollars. Bien que nous assistions à un effort concerté pour répartir la production dans plusieurs régions et que des entreprises telles que Vultr et Northern Data aient sérieusement évolué pour créer une toute nouvelle industrie du cloud d’IA, tant que l’offre ne correspondra pas à la demande, la pénurie de microprocesseurs restera certainement un point douloureux.
La pénurie de centres de données est également préoccupante, mais le défi réside moins dans l’innovation que dans les ressources limitées que sont la terre et l’énergie, sans parler des politiques qui les entourent.
Pour remédier à la pénurie de data centers, il faut adopter une double approche : maximiser la capacité énergétique afin de fournir les faibles niveaux de latence exigés par l’IA, et le faire dans des zones où il y a plus de terres disponibles. L’une des méthodes qui s’avérera extrêmement utile consistera à trouver des lieux éloignés pour l’entraînement à l’IA, afin qu’il ne cannibalise pas les charges de travail des zones métropolitaines à forte capacité d’inférence.
Reconfigurer le data center pour l’IA
Ce concept d’optimisation de ce qui est déjà disponible pourrait déterminer la manière dont nous reconfigurons les data centers, car il place la durabilité au cœur de la stratégie.
En France, le concept de « zéro artificialisation nette » est un accord proposé pour stopper l’étalement urbain et maintenir la biodiversité dans les espaces verts. Pour les centres de données, cela signifie qu’il faut exploiter le potentiel des bâtiments existants et densifier ces sites autant que possible. Mais pour ce faire, une certaine reconfiguration sera nécessaire.
Nous devrons évaluer la façon dont nous maximisons l’espace dans ces sites existants afin de donner la priorité à l’efficacité pour soutenir les charges de travail à forte intensité d’IA. La durabilité n’est plus un concept intangible, mais une question bien réelle qui devrait définir les stratégies de reconfiguration dans le monde entier. Si nous ne commençons pas à prendre de meilleures décisions pour prolonger la durée de vie des centres de données, comme notamment le passage à des techniques de refroidissement liquide et immersif, nos efforts pour accueillir une infrastructure dense en IA deviendront essentiellement futiles.
Garder une longueur d’avance sur la révolution de l’IA est un objectif ambitieux pour n’importe quel secteur, y compris les data centers. Mais en adoptant des techniques de refroidissement avancées, en se conformant à des réglementations en constante évolution et en défendant la durabilité à chaque occasion, je pense que nous avons le potentiel de prospérer dans cette nouvelle ère technologique.
Comment Data4 s’adapte-t-elle à cette nouvelle vague de demandes liée à l’IA ?
La première chose que nous faisons est de chercher à acquérir des campus plus grands et plus puissants pour répondre à ces besoins. Nous disposons d’un site de 180 MW à Francfort et de deux sites à Paris, l’un de 120 MW et l’autre de 250 MW. Nous pensons que l’échelle de ces sites est idéale pour répondre aux besoins de l’IA.
La deuxième adaptation clé consiste à construire des installations beaucoup plus grandes et plus denses. Les GPU ont des milliers de cœurs qui exécutent simultanément des calculs complexes.
Dans un environnement d’IA, les serveurs doivent être très proches les uns des autres, souvent reliés entre eux par des connexions InifiBand plutôt que par Ethernet. Cela crée un environnement très dense (et plus efficace) au sein du data center qui, à son tour, pose des problèmes de refroidissement du serveur.
Des technologies de refroidissement liquide et immersif seront nécessaires pour gérer la chaleur produite dans ces environnements. L’autre avantage des environnements plus vastes, dans le contexte de la charge de travail d’entraînement à l’IA, est qu’ils peuvent accueillir un plus grand nombre de sessions d’entraînement, chacune ayant un profil de consommation fluctuant.
Avec un plus grand nombre de sessions, les effets des fluctuations individuelles s’estompent et la consommation globale se stabilise, ce qui améliore l’efficacité globale et l’empreinte environnementale du centre de données.