Sztuczna inteligencjacentra danych / data centerInfrastrukturaPREZENTACJA PARTNERA
AI jest nie tylko źródłem, ale i rozwiązaniem nowych wyzwań energetycznych
Executive ViewPoint
Z Sébastienem Cruz-Mermy, Data Center Innovation and Tech Explore Lead w Schneider Electric, rozmawiamy o:
- wymuszonych przez AI zmianach na poziomie infrastruktury centrów danych,
- potrzebie lepszego i bardziej skoordynowanego zarządzania energią,
- możliwościach wykorzystania sztucznej inteligencji do poprawy efektywności funkcjonowania centrów danych i ograniczenia ich wpływu na otoczenie.

Czy to prawda, że AI jest dziś głównym motorem rozwoju infrastruktury data center?
Tak. Dynamika rozwoju AI generuje ogromny popyt na infrastrukturę centrów danych. Dochodzimy wręcz do momentu, kiedy ponad 50% zapotrzebowania na moc nowych data center, budowanych do 2030 roku, będzie związane właśnie z rozwojem technologii na potrzeby sztucznej inteligencji. Jednocześnie rośnie również popyt na usługi dostawców i operatorów centrów danych. W Europie mówimy zatem o potrzebie podwojenia skali infrastruktury data center w ciągu kilku lat.
Co stoi na przeszkodzie, aby takie centra danych budować?
Największym wyzwaniem jest tu konieczność projektowania centrów danych tak, aby były zdolne do obsługi przyszłych obciążeń i dużych gęstości mocy, w jak najbardziej efektywny sposób. Wymaga to elastyczności, zwłaszcza biorąc pod uwagę szybkie tempo zmian w technologiach obliczeniowych. Podobna ewolucja następuje także w rozwiązaniach zasilania i chłodzenia, gdzie wzrost gęstości szaf serwerowych wymusza przejście na technologie chłodzenia cieczą.
Z drugiej strony, wymagania w zakresie zasilania centrów danych to kwestia indywidualna dla każdego obiektu. Zależą one przede wszystkim od lokalizacji i dostępności różnych źródeł energii, istniejącej sieci dystrybucyjnej, możliwości wykorzystania źródeł odnawialnych. Niemal każdy kraj w Europie ma inną charakterystykę w tym zakresie.
W Polsce jednym z wyzwań może okazać się wybór i zaprojektowanie infrastruktury zasilania tak, aby efektywnie integrowała zieloną energię, w ramach dostępnego miksu energetycznego.
Jako Schneider Electric dostarczamy rozwiązania, które pomagają sprostać wyzwaniom, w myśl filozofii „Grid to Chip and Chip to Chiller”. Doradzamy również po jakie technologie i koncepcje sięgnąć, aby zapewnić elastyczność i najlepszą efektywność we wszystkich wymiarach działania centrum danych.
Podobno problemem jest też zapewnienie odpowiedniej mocy energetycznej do zasilania centrów danych?
Nie do końca jest to prawda. Jeśli spojrzymy na europejski rynek energii, to widać, że istnieją wystarczające rezerwy mocy dla zapewnienia dalszego rozwoju centrów danych, nawet jeśli ta sytuacja różni się w zależności od konkretnego kraju. Zdecydowanie większym wyzwaniem jest zarządzanie mocą – by była dostępna tam, gdzie jest aktualnie potrzebna.
Odrębną kwestią jest też potrzeba rozwoju sieci dystrybucyjnych i zwiększenia ich możliwości, jeśli chodzi o dostarczanie i wykorzystanie energii ze źródeł odnawialnych. Celem jest to, aby zielona energia była faktycznie dostępna tam, gdzie planowane są inwestycje w centra danych. Podobne wyzwania istnieją zresztą w całej Europie, także na uznawanych za najbardziej dojrzałe rynkach FLAPD (Frankfurt, Londyn, Amsterdam, Paryż i Dublin – przyp. red.).
Szczególnym przypadkiem w kontekście AI jest budowa wyspecjalizowanych „fabryk AI” wyłącznie do celów treningowych. Takie obiekty mogą być zlokalizowane praktycznie w dowolnym miejscu, co oznacza, że nie muszą znajdować się blisko punktu, w którym aplikacje AI są wykorzystywane.
Czy zatem w kontekście AI oznacza to zmianę typowego paradygmatu w zakresie wyboru lokalizacji pod inwestycje w centra danych?
Dokładnie. Jak wspominałem, wyspecjalizowane w rozwoju modeli sztucznej inteligencji ośrodki „AI-ready” mogą być budowane wszędzie tam, gdzie istnieje dostęp do odpowiedniej mocy energetycznej, w tym zielonej energii, a także powierzchni data center.
Powód jest prosty. W przypadku systemów zbudowanych na potrzeby trenowania modeli AI drugorzędne znaczenie mają opóźnienia w transmisji danych. Jest to cecha diametralnie różna od specyfiki tradycyjnych centrów danych czy infrastruktury do wnioskowania AI, gdzie niskie opóźnienia są często krytyczne.
Jakie zmiany w podejściu do projektowania centrów danych wymusza rosnąca skala wykorzystania algorytmów AI?
Moim zdaniem rozwój AI spowoduje postępującą specjalizację centrów danych. Jest to widoczne już dzisiaj: obiekty zaprojektowane pod kątem obsługi obciążeń typowych dla sztucznej inteligencji mają inną charakterystykę od tych, przeznaczonych do tradycyjnych zastosowań. Istotna jest tu wyższa gęstość mocy, która jest pochodną architektury dostępnych dziś rozwiązań sprzętowych, zapewniających najwyższą wydajność obsługi sztucznej inteligencji.
Chęć zapewnienia jak najwyższej wydajności systemów AI wymaga ograniczenia do minimum fizycznej odległości pomiędzy głównymi komponentami serwerów, w tym układów GPU, ale też poszczególnych urządzeń składających się na klaster obliczeniowy AI. Serwery i szafy serwerowe muszą być więc umieszczone jak najbliżej siebie. Przekłada się to wprost na wzrost gęstości mocy.
Ponadto układy GPU, które obecnie najlepiej radzą sobie z obciążeniami charakterystycznymi dla sztucznej inteligencji, wymagają znacznej ilości mocy i generują duże ilości ciepła. W efekcie, gęstość mocy serwerów przeznaczonych do obsługi AI jest zdecydowanie wyższa niż tych, przeznaczonych do tzw. zastosowań tradycyjnych. Konieczność dostarczenia wysokiej mocy i odprowadzenia znacznych ilości ciepła symbolizuje z kolei nowe wymagania względem architektury i infrastruktury centrum danych.
Charakterystyka obciążeń AI oznacza, że centra danych muszą być projektowane od podstaw, z uwzględnieniem nowych wymagań. To natomiast przekłada się na konkretne oczekiwania względem dostawców rozwiązań dla centrów danych – i to we wszystkich wymiarach funkcjonowania takich obiektów: od zasilania, przez chłodzenie, po zarządzanie całą infrastrukturą.
Jednocześnie obciążenia związane ze sztuczną inteligencją mogą pozwalać na większą elastyczność pod względem dostępności i odporności – szczególnie w przypadku infrastruktury zaprojektowanej do trenowania modeli AI.
Ewentualne przerwy w działaniu mogą wymagać powtórzenia części obliczeń, ale nie przyczynią się do strat danych lub utraty korzyści biznesowych. Podobnie, wymagania dotyczące dostępu do sieci i usług telekomunikacyjnych mogą być mniej rygorystyczne w porównaniu z tradycyjnymi centrami danych, gdzie oczekuje się wyższej odporności i niezawodności systemów.
Traktowanie AI jako szansy na obniżenie zużycia energii i poprawę efektywności energetycznej centrów danych, to jedyny zrównoważony sposób na zapewnienie ich długofalowego rozwoju w obliczu rosnących wymagań. Sztuczna inteligencja nie tylko umożliwia dynamiczną analizę dostępnych danych – pozwala taką wiedzę operacjonalizować i wykorzystać w różnych branżach.
Czy zatem czeka nas postępująca specjalizacja centrów danych i podział na obiekty przeznaczone do obsługi AI oraz innych obciążeń?
Myślę, że tak. Jednak ten podział nie zawsze będzie wyraźny. Centra danych wyspecjalizowane w AI na dużą skalę nie wszędzie będą potrzebne. Tego typu obiekty będą prawdopodobnie budowane głównie przez największych dostawców infrastruktury i usług chmurowych, koncentrujących się na rozwoju trenowania AI.
Nie wolno też zapominać o potrzebach względem infrastruktury sieciowej. Ogromne ilości danych wykorzystywane do trenowania sztucznej inteligencji oznaczają nie tylko radykalny wzrost potrzeb w obszarze mocy obliczeniowej, lecz także konieczność szybkiego i niezawodnego przesyłania danych w obrębie klastrów AI.
Myślę, że dla typowego centrum danych o mocy całkowitej na poziomie 500 MW, zoptymalizowanego pod kątem szkolenia modeli AI, nawet 100 MW może być przeznaczone na sprzęt sieciowy. Są to ogromne wartości zarówno w kontekście zasilania, jak i chłodzenia.
Przykładowo, szafy serwerowe NVIDIA GB200 NVL72 mogą pobierać do 132 kW, a sprzęt sieciowy osiąga gęstość mocy na poziomie około 22 kW. Nie są to może oszałamiające wielkości, ale oznaczają radykalne zwiększenie gęstości mocy również na poziomie szaf serwerowych, a co za tym idzie – konieczność zastosowania innowacyjnych rozwiązań chłodzenia. Są to zupełnie nowe wymagania w porównaniu z tradycyjnymi obciążeniami.
Trudno zatem mówić o możliwości zapewnienia pełnej uniwersalności data center. Oczywiście, takie wymagania będą dotyczyły zapewne tylko niewielkiej części centrów danych – tych zajmujących się trenowaniem modeli AI. Wymagania związane z używaniem wyćwiczonych wcześniej modeli są mniejsze i mogą być bardziej zbliżone do tradycyjnych aplikacji. Konieczne będzie jednak projektowanie infrastruktury centrów danych z myślą o jak największej elastyczności i zdolności do obsługi różnych profili obciążeń. Jako Schneider Electric dostarczamy rozwiązania, które pomagają sprostać tego typu wyzwaniom, w myśl filozofii „Grid to Chip and Chip to Chiller”. Doradzamy również po jakie technologie i koncepcje sięgnąć, aby zapewnić elastyczność i najlepszą efektywność we wszystkich wymiarach działania centrum danych. Punktem wyjścia do podejmowania właściwych decyzji w tym obszarze powinna być charakterystyka obciążeń, które mają być obsługiwane w konkretnej przestrzeni serwerowej.
Jakie zmiany w zakresie odprowadzania ciepła są niezbędne w obliczu rosnącej skali wykorzystania serwerów do obsługi AI?
Aby optymalnie zaadresować wyzwania w zakresie chłodzenia systemów o wysokiej gęstości mocy, a także na dużą skalę, niezbędne staje się zastosowanie systemów odprowadzania ciepła bezpośrednio z procesorów. Schneider Electric oferuje kompleksowe rozwiązania w tym zakresie – od poziomu układu scalonego aż po agregat chłodniczy (chiller). Nasze portfolio zostało dodatkowo wzmocnione rozwiązaniami firmy Motivair, specjalizującej się w chłodzeniu systemów wysokowydajnych (HPC).
Dzięki doświadczeniu w systemach HPC, w tym zastosowaniu płyt chłodzących oraz wysokowydajnych wymienników ciepła CDU (Coolant Distribution Unit), montowanych bezpośrednio na procesorach i wspieranych przez zaawansowane bloki chłodzące oraz optymalizacje, jesteśmy w stanie dostarczyć efektywny i energooszczędny system chłodzenia do różnych zastosowań.
Architektura systemu odprowadzania ciepła w centrum danych musi umożliwiać efektywne kosztowo odprowadzanie ciepła z serwerów pracujących przy różnych profilach obciążenia. Odpowiednie technologie istnieją i powinny być traktowane jako zintegrowany system, jednak kluczowe jest zaprojektowanie właściwej architektury oraz wdrożenie zautomatyzowanego, dynamicznego systemu sterowania chłodzeniem.
Dla typowego centrum danych o mocy całkowitej na poziomie 500 MW, zoptymalizowanego pod kątem szkolenia modeli AI, nawet 100 MW może być przeznaczone na sprzęt sieciowy. Są to ogromne wartości zarówno w kontekście zasilania, jak i chłodzenia.
Co z rozwojem infrastruktury zasilania i dystrybucji energii w centrach danych?
Tutaj wchodzimy właśnie w obszar naszej koncepcji „Grid to Chip”. Oznacza to, że system zasilania musi być projektowany z uwzględnieniem wymagań stawianych przez AI – czyli zdolności do dostarczania wysokiej jakości energii elektrycznej do szaf serwerowych o wysokiej gęstości mocy, w jak najbardziej efektywny sposób. Istotne jest więc wykorzystanie najnowszych technologii, takich jak nasz nowy 3-fazowy UPS Galaxy VXL, który pozwala zoptymalizować zajmowaną przestrzeń i efektywność energetyczną, a jednocześnie radzi sobie z dynamicznym profilem zużycia energii generowanym przez obciążenia AI.
W jaki sposób wykorzystanie sztucznej inteligencji może pomóc w optymalizacji działania centrów danych?
Możliwości są bardzo szerokie. Wykorzystujemy AI do projektowania optymalnego rozmieszczenia sprzętu IT, w celu maksymalizacji odprowadzania ciepła i zwiększenia efektywności systemu chłodzenia, korzystając z oprogramowania CFD, takiego jak nasz EcoStruxure IT Design.
Jesteśmy też w stanie zastosować algorytmy sztucznej inteligencji m.in. do poprawy efektywności energetycznej, a także ograniczenia negatywnego wpływu na sieci dystrybucyjne. Poza tym, za sprawą AI możemy sterować działaniem centrów danych, tak aby obniżyć intensywność emisji dwutlenku węgla oraz ich wpływ na lokalne społeczności.
Sztuczna inteligencja wnosi również wartość na poziomie scentralizowanego zarządzania złożonymi, energochłonnymi obiektami. Na przykład rozwiązania chłodzenia wspierane przez AI mogą dynamicznie optymalizować przepływ powietrza, zmniejszając zużycie energii przez systemy chłodzenia, a tym samym koszty, które mogą stanowić ponad 30–33% całkowitego zużycia energii w typowym centrum danych
Kolejnym ważnym obszarem, w którym AI odgrywa istotną rolę, jest ułatwienie integracji rozproszonych źródeł energii (DER), w tym oczywiście energii odnawialnej. Konieczność dywersyfikacji źródeł energii oraz wykorzystania energii z OZE prowadzi do powstania bardziej złożonych systemów zasilania centrów danych, łączących różne technologie, które muszą być ściśle zsynchronizowane. AI pomaga dostosowywać i optymalizować działanie systemu zgodnie z priorytetami – niezależnie od tego, czy jest to dostępność, koszt, intensywność emisji CO2, czy inna kombinacja.
Traktowanie AI jako szansy na obniżenie zużycia energii i poprawę efektywności energetycznej centrów danych, to jedyny zrównoważony sposób na zapewnienie ich długofalowego rozwoju w obliczu rosnących wymagań. Sztuczna inteligencja nie tylko umożliwia dynamiczną analizę dostępnych danych – pozwala taką wiedzę operacjonalizować i wykorzystać w różnych branżach.
W Schneider Electric wierzymy, że sztuczna inteligencja odegra kluczową rolę w cyfrowej transformacji obiektów o wysokim zużyciu energii – nie tylko centrów danych, lecz także biurowców czy fabryk. AI jest akceleratorem digitalizacji i umożliwia przyspieszenie procesów dekarbonizacji gospodarek. Sztuczna inteligencja nie jest zatem jedynie źródłem nowych wyzwań po stronie popytu na energię, ale też ich rozwiązaniem. Dla każdego z obiektów musimy jedynie znaleźć scenariusz, w którym te dwa aspekty uda się pogodzić w najlepszy i najbardziej efektywny sposób.
Od czego zacząć drogę w kierunku budowy centrum danych na potrzeby projektów AI?
Pierwszym krokiem powinno być zrozumienie wymagań związanych z obciążeniami AI, a także rozpoznanie dostępnych na rynku rozwiązań i usług. W wielu przypadkach budowa specjalistycznych centrów danych o wysokiej gęstości nie będzie konieczna, jeśli organizacja nie planuje tworzenia własnych modeli AI. Jednak, jeżeli taka potrzeba zaistnieje, warto wybrać partnera takiego jak Schneider Electric, który będzie w stanie kompleksowo wspierać realizację takiej inwestycji.
Ściśle współpracujemy z NVIDIA, żeby zrozumieć specyfikę wymagań najbardziej wydajnych GPU. Testujemy różne rozwiązania i konfiguracje, aby znaleźć najbardziej efektywne podejście do zasilania i chłodzenia. Tworzymy również projekty referencyjne dla centrów danych, które mogą stanowić podstawę do rzeczywistych wdrożeń: doradzamy, jak zbudować i obsługiwać optymalny klaster NVIDIA GB200 NVL72, jak skalować i replikować tę infrastrukturę oraz jak zapewnić odpowiednie zasilanie i dobrać system chłodzenia.
Czy to znaczy, że Schneider Electric oferuje również usługi związane wprost z dostawami energii do centrów danych?
Dokładnie tak. I nie dotyczy to tylko centrów danych. Jesteśmy jednym z największych pośredników w kwestii zakupu energii. Pomagamy klientom w zakresie zaopatrzenia w energię, optymalizacji procesów zasilania, a także definiowania i wdrażania strategii zmierzających do wykorzystania zielonej energii.
Wspieramy naszych klientów w definiowaniu, a następnie wdrażaniu kompleksowej strategii budowy i uruchamiania infrastruktury centrów danych – również w kontekście specyficznych wymagań związanych ze sztuczną inteligencją. Oferujemy kompleksowe rozwiązania zgodnie z koncepcją „Grid to Chip and Chip to Chiller”– włącznie z oprogramowaniem i usługami wspierającymi efektywne projektowanie oraz bezpieczne operacje.







