centra danych / data centerPREZENTACJA PARTNERA
Centra danych trzeba dziś projektować jako zestaw elastycznych, modułowych stref z różną architekturą zasilania i chłodzenia
Executive ViewPoint
Z Georgem Dritsanos, wiceprezesem firmy Schneider Electric odpowiedzialnym za dział Secure Power & Data Centers w Europie Środkowo-Wschodniej, rozmawiam o innowacjach wspierających projektowanie, rozwój i utrzymanie infrastruktury centrów danych, wyzwaniach związanych z gwałtownym wzrostem gęstości mocy i dużą zmiennością obciążeń, wielkoskalowych magazynach energii, możliwościach efektywnego wykorzystania OZE do zasilania centrów danych, niezbędnych zmianach na poziomie chłodzenia centrów danych oraz zagrożeniach wymierzonych w infrastrukturę niezbędną do działania takich obiektów.

W obliczu rosnących potrzeb energetycznych i ograniczeń w dostępności mocy, firmy coraz częściej szukają rozwiązań hybrydowych, łączących zasilanie sieciowe z OZE i systemami magazynowania energii. Jest to nie tylko odpowiedź na regulacje, ale również sposób na zapewnienie ciągłości działania w sytuacjach kryzysowych.
W jaki sposób rosnące koszty energii i regulacje środowiskowe wpływają na potrzeby operatorów data center w zakresie efektywności i bezpieczeństwa zasilania?
Rosnące koszty energii i zaostrzające się regulacje środowiskowe zmieniają podejście przedsiębiorstw i operatorów centrów danych do zarządzania energią. Efektywność energetyczna przestała być opcją – stała się koniecznością biznesową.
Regulacje Unii Europejskiej, w tym nowe obowiązki raportowania oraz rosnące wymagania w ramach polityk klimatycznych, wymuszają poprawę efektywności i transparentność działania. Wiele inwestycji już dziś dąży do osiągania efektywności energetycznej PUE na poziomie 1.2–1.3, który staje się rynkowym benchmarkiem dla nowoczesnych obiektów.
Z moich obserwacji wynika, że klienci Schneider Electric koncentrują się na trzech kluczowych obszarach. Pierwszy z nich to optymalizacja kosztów operacyjnych, gdzie przy obecnych cenach energii każdy procent poprawy efektywności energetycznej w centrum danych średniej wielkości przekłada się bezpośrednio na oszczędności rzędu milionów euro rocznie. Wspieramy klientów w tych wysiłkach. Przykładowo, nasze oprogramowanie EcoStruxure pozwala osiągnąć do 30% oszczędności energii tylko poprzez inteligentne zarządzanie i optymalizację w czasie rzeczywistym.
Kolejnym obszarem jest bezpieczeństwo i niezawodność dostaw energii. W obliczu rosnących potrzeb energetycznych i ograniczeń w dostępności mocy, firmy coraz częściej szukają rozwiązań hybrydowych, łączących zasilanie sieciowe z OZE i systemami magazynowania energii. Jest to nie tylko odpowiedź na regulacje, ale również sposób na zapewnienie ciągłości działania w sytuacjach kryzysowych.
Krytycznego znaczenia nabiera też zgodność z regulacjami ESG. Inwestorzy i interesariusze wymagają transparentności w kwestii śladu węglowego. Centra danych muszą nie tylko redukować emisje, lecz także dokładnie je mierzyć i raportować.
Jakiego rodzaju innowacje technologiczne stają się niezbędne, aby zrównoważyć podaż i popyt energii w skali całych rynków i regionów Europy?
Europa znajduje się w kluczowym momencie transformacji energetycznej, w której centra danych odgrywają coraz większą rolę jako element wspierający elastyczność i stabilność systemów energetycznych. Coraz większe znaczenie zyskują technologie umożliwiające inteligentne zarządzanie energią nie tylko na poziomie pojedynczych obiektów, a całych systemów energetycznych.
Jednym z fundamentów tej zmiany są nowoczesne systemy microgrid. Nie mówimy tutaj o prostym połączeniu paneli fotowoltaicznych z centrum danych, ale o inteligentnych systemach, które w czasie rzeczywistym optymalizują przepływ energii między siecią publiczną, lokalnymi źródłami OZE, systemami magazynowania i odbiornikami. Wdrażamy rozwiązania, które pozwalają centrom danych funkcjonować jako „prosumenci” – nie tylko konsumując, ale również oddając energię.
Kolejny istotny element stanowią magazyny energii typu BESS (Battery Energy Storage System). Służą one nie tylko jako backup, ale pozwalają gromadzić energię w okresach niższych cen i wysokiej produkcji OZE, a następnie wykorzystywać ją w momentach szczytowego zapotrzebowania. Trend ten zyskuje na znaczeniu wraz ze wzrostem inwestycji w baterie wielkoskalowe w całej Europie.
Niezwykle istotną rolę odgrywają również sztuczna inteligencja i cyfrowe modele predykcyjne. Dzięki nim operatorzy mogą prognozować obciążenie i dostępność energii, dopasowywać działanie infrastruktury do cen rynkowych i optymalizować zużycie energii w czasie rzeczywistym. W krajach, gdzie sieci przesyłowe są modernizowane, takich jak Serbia, cyfryzacja systemów energetycznych dodatkowo zwiększa efektywność dystrybucji energii. Wszystkie wspominane rozwiązania pozwalają centrom danych nie tylko redukować własny ślad energetyczny, lecz także realnie wspierać transformację energetyczną w Europie.
W jaki sposób zmienia się dziś charakterystyka potrzeb energetycznych centrów danych?
Myślę, że jesteśmy świadkami fundamentalnej zmiany w charakterze obciążeń w centrach danych, która wymaga całkowicie nowego podejścia do projektowania infrastruktury energetycznej i chłodzącej. Jeszcze 5 lat temu typowy serwer rack w centrum danych pobierał 5-8 kW mocy. Dziś, z obciążeniami AI i High Performance Computing, mówimy o 40-100 kW – to dziesięciokrotny wzrost gęstości mocy w tej samej przestrzeni fizycznej. Prognozy wskazują, że do 2030 roku obciążenia związane ze sztuczną inteligencją będą odpowiadały nawet za 40% całkowitej mocy obliczeniowej w centrach danych i od 27 do 44% zapotrzebowania na energię. Oznacza to ponad 120 GW dodatkowej mocy potrzebnej w ciągu najbliższych pięciu lat. W obliczu takiej zmiany tradycyjne systemy chłodzenia powietrzem przestają być wystarczające. Stąd konieczność wdrożenia systemów liquid cooling, czyli chłodzenia cieczą.
Charakter obciążenia staje się również znacznie bardziej dynamiczny. Obciążenia AI charakteryzują się zmiennym poborem mocy – od 20% do 100% nominalnej wartości w ciągu sekund. Przekłada się to na zupełnie nowe wymagania wobec systemów zasilania bezprzerwowego, które muszą reagować na te gwałtowne zmiany bez utraty stabilności. Nasz UPS Galaxy VXL został zaprojektowany właśnie z myślą o takich potrzebach.
Prognozy wskazują, że do 2030 roku obciążenia związane ze sztuczną inteligencją będą odpowiadały nawet za 40% całkowitej mocy obliczeniowej w centrach danych i od 27% do 44% zapotrzebowania na energię. Oznacza to ponad 120 GW dodatkowej mocy potrzebnej w ciągu najbliższych pięciu lat.
W jaki sposób branża data center radzi sobie z wyzwaniami wynikającymi z rosnących potrzeb energetycznych oraz gęstości mocy?
Rosnąca gęstość mocy i coraz większe zapotrzebowanie na energię w nowoczesnych centrach danych wymagają podejścia, które łączy odpowiednie projektowanie, właściwy dobór technologii oraz elastyczną strategię operacyjną. Aby sprostać tym wyzwaniom, operatorzy coraz częściej wykorzystują modułową i prefabrykowaną architekturę, która pozwala szybciej skalować obiekty oraz ograniczyć czas budowy w porównaniu z tradycyjnymi metodami.
Przykładowo, rozwiązania prefabrykowane, które dostarczamy jako Schneider Electric, umożliwiają redukcję czasu wdrożenia nawet o 50% w porównaniu z tradycyjną budową. Doskonałym przykładem jest tutaj projekt HER1 na Krecie, który realizowaliśmy dla Digital Reality, i który został ukończony w ciągu ok. roku od złożenia oferty. Przy użyciu tradycyjnych metod zajęłoby to co najmniej 2 lata.
Kolejnym ważnym elementem wsparcia dla branży jest nasze partnerstwo z NVIDIA. Dzięki niemu powstają kompletne projekty referencyjne infrastruktury dla środowisk o wysokiej gęstości mocy, w tym obciążeń AI i HPC. Partnerstwo to łączy doświadczenie Schneider Electric w zakresie zasilania i chłodzenia ze specjalistyczną wiedzą NVIDIA dotyczącą architektury obliczeniowej, co pozwala tworzyć przetestowane, gotowe do użycia konfiguracje zoptymalizowane pod najbardziej wymagające platformy AI. Takie podejście minimalizuje ryzyko i znacząco skraca czas przygotowania obiektu pod zaawansowane obciążenia GPU.
Jakich zmian i nowych rozwiązań w ramach infrastruktury data center wymaga wykorzystanie OZE na szeroką skalę?
Integracja OZE w centrach danych to znacznie więcej niż instalacja paneli. Kluczowym wyzwaniem pozostaje utrzymanie niezawodności 24/7 przy rosnącym udziale energii pogodozależnej w systemie – a to wymaga elastyczności, magazynowania i bardzo dobrego zarządzania energią.
Dlatego przy szerokim magazynów energii wspierających elastyczność w data center rośnie znaczenie: magazynów energii inteligentnego sterowania zasilaniem i chłodzeniem oraz narzędzi analitycznych, które pomagają prognozować obciążenia i dostępność energii oraz optymalizować pracę infrastruktury w granicach wymagań SLA i architektury danego obiektu.
W tym kontekście Schneider Electric wnosi wartość w trzech obszarach wsparcia dla klientów. Po pierwsze, są to audyty i konsulting energetyczny, które identyfikują sprawność zasilania, chłodzenia, jakość energii i budują realną mapę integracji OZE, magazynowania i umów PPA. Po drugie, zapewniamy cyfrowe monitorowanie i zarządzanie infrastrukturą w ramach EcoStruxure IT, od pojedynczych lokalizacji po środowiska rozproszone, z całodobową widocznością i możliwością wsparcia eksperckiego w zależności od zakresu usługi. Po trzecie, oferujemy wsparcie w przygotowaniu do wymogów raportowania i zgodności pod kątem regulacji UE.
Jakie rozwiązania w zakresie chłodzenia centrów danych będą zyskiwać na znaczeniu w kolejnych latach?
Coraz bardziej powszechne będzie przechodzenie na podejście „liquid‑ready”, nie tyle zastępujące chłodzenie powietrzem, ile łączące oba rozwiązania tam, gdzie jest to uzasadnione profilem obciążenia. Technologie chłodzenia cieczą zyskują na znaczeniu, bo przy wysokich gęstościach mocy tradycyjne chłodzenie powietrzem staje się coraz trudniejsze do skalowania ekonomicznie i operacyjnie. Ciecz ma o wiele lepsze właściwości odbioru ciepła niż powietrze, co pozwala odbierać energię cieplną bliżej źródła (CPU/GPU), ograniczać pracę wentylatorów i stabilniej utrzymywać warunki pracy w strefach wysokiej gęstości. W praktyce liquid cooling może zmniejszyć zużycie energii na chłodzenie o 15-30% w porównaniu z najefektywniejszymi systemami chłodzenia powietrzem.
Dodatkową korzyścią jest to, że liquid cooling ułatwia odzysk ciepła, bo pracuje na „cieplejszych” parametrach, i upraszcza przekazanie energii do instalacji wykorzystującej ciepło odpadowe – oczywiście tam, gdzie istnieje odbiorca i infrastruktura po stronie lokalnej.
W obszarze zasilania widzimy równolegle trend przechodzenia na wyższe napięcia dystrybucji DC w nowych architekturach AI, w szczególności kierunek 800 VDC, który pozwala ograniczać straty i „miedź” w torze zasilania przy bardzo wysokich mocach na rack i na klaster. Schneider Electric rozwija rozwiązania wspierające ten kierunek, m.in. w ramach współpracy ekosystemowej wokół 800 VDC.
Coraz ważniejsze będą też architektury hybrydowe w magazynowaniu energii – łączące funkcje podtrzymania zasilania z szerszym podejściem do elastyczności i zarządzania energią BESS.
Z kolei jeśli chodzi o źródła energii, to jako długoterminowy kierunek dla części największych kampusów często pojawiają się małe reaktory modułowe SMR. Jest to jednak temat wymagający czasu, dojrzałości regulacyjnej oraz uwzględnienia lokalnych uwarunkowań – dlatego dziś kluczowe pozostają projektowanie centrów danych pod kątem efektywności, elastyczności i niezawodność niezależnie od miksu wytwarzania energii.
Coraz większe znaczenie zyskują technologie umożliwiające inteligentne zarządzanie energią nie tylko na poziomie pojedynczych obiektów, ale całych systemów energetycznych. Jednym z fundamentów tej zmiany są nowoczesne systemy microgrid. Nie mówimy tutaj o prostym połączeniu paneli fotowoltaicznych z centrum danych, ale o inteligentnych systemach, które w czasie rzeczywistym optymalizują przepływ energii między siecią publiczną, lokalnymi źródłami OZE, systemami magazynowania i odbiornikami.
Czy takie rozwiązania chłodzenia cieczą mogą być bardziej energooszczędne w porównaniu z tradycyjnymi rozwiązaniami chłodzenia powietrzem?
Tak! Szczególnie tam, gdzie mamy wysokie gęstości mocy typowe dla AI i HPC.
Warto też pamiętać o kontekście PUE, które w centrach danych bywa bardzo zróżnicowane. Wiele obiektów pracuje w przedziale około 1.4–1.8, podczas gdy najlepiej zoptymalizowane środowiska zbliżają się do 1.2. Liquid cooling w środowiskach o wysokiej gęstości mocy jest często kluczowym elementem, który pomaga zbliżać się do tych lepszych parametrów, bo zmniejsza udział energii potrzebnej na chłodzenie.
Równolegle rośnie presja na transparentność i mierzenie efektywności – w UE obowiązuje raportowanie kluczowych wskaźników dla większych data center, a część krajów wprowadza własne, bardziej szczegółowe wymagania. Dlatego dziś pytanie nie brzmi „czy liquid cooling”, tylko „gdzie i w jakiej architekturze”, aby uzyskać najlepszy bilans TCO, niezawodności i efektywności.
Na jakie rozwiązania w zakresie liquid cooling stawia dziś Schneider Electric? Jakie znaczenie ma tu niedawne pozyskanie firmy Motivair?
Proponujemy podejście end to end: od projektowania architektury termicznej pod obciążenia AI/HPC, przez dostarczenie infrastruktury „liquid ready”, po monitoring i utrzymanie. Przejęcie kontrolnego pakietu Motivair wzmocniło nasze kompetencje w obszarze chłodzenia cieczą i rozszerzyło portfolio rozwiązań, które są kluczowe dla środowisk wysokiej gęstości.
W praktyce „Motivair by Schneider Electric” obejmuje m.in. jednostki dystrybucji czynnika chłodzącego (CDU), wymienniki ciepła montowane w tylnej ścianie szafy rack (ChilledDoor), cold plates oraz kompletne rozwiązania pętli chłodzenia i odprowadzania ciepła. Zostały one zaprojektowane z myślą o skalowaniu – od środowisk hybrydowych po instalacje o wysokiej gęstości mocy. To istotne, ponieważ rynek nie przechodzi na jeden model chłodzenia z dnia na dzień: część klientów zaczyna od rack level, takich jak RDHx, inni od direct-to-chip.
Kluczowe jest to, aby całość architektury była spójna, monitorowana i łatwa w utrzymaniu serwisowym. Liquid cooling to nie tylko sprzęt, lecz także inżynieria wdrożenia i stabilna eksploatacja, w tym kontrola jakości wody, detekcja nieszczelności, procedury serwisowe i integracja z systemami zarządzania. Połączenie z Motivair dało nam zarówno dostęp do najnowocześniejszej technologii, jak i zespół wysoce wykwalifikowanych ekspertów, który ma setki wdrożeń za sobą, zna potencjalne pułapki i wie, jak ich unikać.
Nasze strategiczne partnerstwa z NVIDIA, Dell, HPE i Supermicro oznaczają, że rozwiązania są testowane i certyfikowane z ich platformami. Kiedy klient kupuje serwery NVIDIA DGX, może być pewien, że nasze systemy chłodzenia będą z nimi kompatybilne. Realizowaliśmy już projekty liquid cooling w całym regionie CEE. Widzimy ogromne zainteresowanie tą technologią. Moim zdaniem, w ciągu 2-3 lat stanie się ona standardem dla nowych wdrożeń AI.
Operatorzy data center jako jedno z głównych wyzwań wskazują potrzebę sprostania różnym potrzebom klientów – tj. zapewnienia przestrzeni data center pod serwery o diametralnie odmiennych skalach gęstości – od klasycznego storage, po wysoce wydajne serwery AI. Jak pogodzić te skrajnie różne potrzeby?
To jedno z ciekawszych wyzwań, przed którym stoi dziś branża data center. W tym samym obiekcie trzeba obsłużyć zarówno obciążenia o niskiej gęstości, jak i strefy wysokiej gęstości dla AI/HPC. Rozwiązaniem jest projektowanie centrum danych jako zestawu elastycznych, modułowych stref z różną architekturą zasilania i chłodzenia.
W praktyce oznacza to podejście hybrydowe. Dla części środowisk nadal optymalne jest chłodzenie powietrzem, natomiast dla stref wysokiej gęstości coraz częściej potrzebne są rozwiązania liquid ready. Ważną rolę pełnią także rozwiązania pośrednie, takie jak RDHx, które pomagają podnosić możliwą gęstość na poziomie szafy rack i upraszczają modernizację istniejących obiektów – bez konieczności natychmiastowej przebudowy całej infrastruktury.
W operacyjnym spięciu całości pomagają inteligentne systemy zarządzania, takie jak EcoStruxure, które monitorują zużycie energii i chłodzenia w czasie rzeczywistym. System automatycznie balansuje obciążenia i może przenosić workloady między różnymi strefami, aby zoptymalizować wykorzystanie infrastruktury. Warto również podkreślić „etapowanie”, czyli Phased Deployment Approach, bo centrum danych nie musi być od razu w pełni wyposażone.
Możemy zacząć od podstawowej infrastruktury chłodzenia, a następnie dodawać moduły w miarę wzrostu zapotrzebowania na obciążenia AI. Takie podejście zastosowaliśmy we wspomnianym projekcie HER1 na Krecie. Centrum jest zaprojektowane tak, aby obsługiwać mix różnych obciążeń, z zachowaniem elastyczności na przyszłe zmiany, bez konieczności przebudowy całego obiektu.
Technologie chłodzenia cieczą zyskują na znaczeniu, bo przy wysokich gęstościach mocy tradycyjne chłodzenie
powietrzem staje się coraz trudniejsze do skalowania ekonomicznie i operacyjnie. W praktyce liquid cooling może zmniejszyć zużycie energii na chłodzenie o 15-30% w porównaniu z najefektywniejszymi systemami chłodzenia powietrzem. Dodatkową korzyścią jest to, że chłodzenie cieczą ułatwia odzysk ciepła.
Jak definiuje Pan priorytety klientów Schneider Electric w obszarze zrównoważonego rozwoju – co jest dziś ważniejsze: efektywność energetyczna, redukcja emisji CO2, czy elastyczność i odporność systemów?
Nasi klienci coraz częściej traktują odporność systemu, efektywność energetyczną i dekarbonizację jako jeden spójny zestaw wymagań, bo te obszary wzajemnie się warunkują.
Jeśli miałbym wskazać kolejność podejmowania decyzji, fundamentem pozostają niezawodność i odporność – żadna organizacja nie zaakceptuje „zielonego” rozwiązania, które obniża dostępność usług. Dlatego transformacja energetyczna w data center musi być projektowana w sposób, który nie pogarsza parametrów bezpieczeństwa i ciągłości działania. Co więcej, rosnące wymagania w obszarze odporności operacyjnej i cyberbezpieczeństwa dodatkowo wzmacniają tę logikę.
Redukcja emisji CO2 stała się obecnie wymogiem biznesowym. Inwestorzy patrzą na metryki ESG, regulatorzy wprowadzają coraz bardziej restrykcyjne normy, klienci pytają o wpływ na środowisko. W Europie Środkowo- -Wschodniej w ostatnich 2-3 latach zaszły w tym obszarze ogromne zmiany – kwestie, które wcześniej były dla klientów drugorzędne, dziś są w top 3 priorytetów. Efektywność energetyczna jest oczywiście narzędziem do realizacji powyższych celów, ale też wartością samą w sobie. Każdy zaoszczędzony megawat to niższe koszty operacyjne, mniejsza presja na sieci elektroenergetyczne i mniejsza emisja CO2. Klienci coraz rzadziej postrzegają sustainability jako koszt, a coraz częściej jako trwałą przewagę konkurencyjną.
Kluczowa jest też edukacja klientów. Nie każde obciążenie wymaga najnowszych serwerów AI. Często bardziej opłacalne jest trzymanie części obciążeń na tradycyjnej infrastrukturze, a tylko najbardziej wymagające obliczenia przenosić na klastry AI. W ramach naszych usług konsultingowych pomagamy klientom optymalnie zaplanować migrację.
W tym samym obiekcie trzeba obsłużyć zarówno obciążenia o niskiej gęstości, jak i strefy wysokiej gęstości dla AI/HPC. Rozwiązaniem jest projektowanie centrum danych jako zestawu elastycznych, modułowych stref z różną architekturą zasilania i chłodzenia. W praktyce oznacza to podejście hybrydowe. Dla części środowisk nadal optymalne jest chłodzenie powietrzem, natomiast dla stref wysokiej gęstości coraz częściej potrzebne są rozwiązania liquid ready.
Jak zmieniło się postrzeganie kwestii cyberbezpieczeństwa w obszarze systemów zasilania kluczowej infrastruktury – jak choćby centrów
danych? Często są to przecież nadal odizolowane systemy automatyki przemysłowej funkcjonujące obok nowoczesnych, cyfrowych platform…
Zmiany w tym zakresie są naprawdę fundamentalne. Przez lata wiele elementów infrastruktury – takich jak zasilanie, dystrybucja energii, chłodzenie czy BMS – funkcjonowało w logice „bezpieczne, bo odizolowane”. Dziś to założenie przestało być wystarczające, bo operatorzy potrzebują zdalnego nadzoru, zaawansowanej analityki i integracji systemów, co w naturalny sposób zwiększa powierzchnię ataku.
Digitalizacja i potrzeba zdalnego zarządzania oznaczają, że systemy są podłączone do sieci. Dodatkowo atakujący szybko zrozumieli, że zamiast próbować włamań do dobrze chronionych serwerów, mogą po prostu zachwiać działaniem infrastruktury wspierającej – np. wyłączając zasilanie lub klimatyzację. W ostatnich latach byliśmy świadkami kilku głośnych incydentów, gdzie cyberprzestępcy atakowali systemy HVAC lub BMS, aby zakłócić pracę centrów danych.
Z perspektywy Schneider Electric cyberbezpieczeństwo jest integralnym elementem podejścia „security-by- -design”. Nasz proces rozwoju produktów jest certyfikowany zgodnie z normą ISA/IEC 62443-4-1, a wybrane komponenty ekosystemu EcoStruxure IT uzyskały niezależne certyfikacje IEC 62443-4-2 na wyższym poziomie bezpieczeństwa. W praktyce przekłada się to na rekomendowane podejście architektoniczne: segmentację IT/OT, strefy i kanały komunikacji, kontrolę dostępu opartą o role, aktualizacje i zarządzanie podatnościami – oraz na procesy operacyjne, takie jak ćwiczenia incident response i okresowe audyty. To jest kluczowe: cyberbezpieczeństwo w obszarze OT nie jest jednorazowym projektem, tylko stałym elementem budowania i utrzymania odporności infrastruktury krytycznej.







