Sztuczna inteligencjacentra danych / data centerBranża IT
ABB i NVIDIA projektują energetyczny fundament centrów danych obsługujących AI
Kluczowym elementem tej strategii jest przejście z tradycyjnej architektury prądu przemiennego (AC) na rozwiązania oparte na prądzie stałym (DC), które lepiej odpowiadają na gwałtownie rosnące potrzeby energetyczne AI.

Modele sztucznej inteligencji zużywają wielokrotnie więcej energii niż klasyczne systemy IT, co przekłada się na wzrost kosztów eksploatacyjnych i nowe wyzwania projektowe. Wspólne rozwiązania ABB i NVIDIA mają umożliwić budowę centrów danych zdolnych do obsługi bardzo wysokiej gęstości mocy przy niższych stratach energii oraz większej przewidywalności kosztów.
ABB opiera te prace na doświadczeniach z sektora morskiego, gdzie systemy zasilania o napięciu do 1000 V DC i mocy sięgającej 20 MW pozwoliły ograniczyć zużycie energii o 20-40% i obniżyć koszty utrzymania nawet o jedną trzecią. Jak podkreśla firma, podobne korzyści można osiągnąć w centrach danych, które coraz częściej funkcjonują na granicy swoich możliwości energetycznych.
„Większość istniejących centrów danych projektowano przed erą AI, dla znacznie mniejszej gęstości mocy. Dziś zapotrzebowanie może być nawet dziesięciokrotnie wyższe. Pozostanie przy architekturze AC oznaczałoby ogromne straty energii i wysokie koszty infrastruktury. Systemy 800 V DC są bardziej wydajne, skalowalne i ekonomiczne” – przekonuje Marcin Walewski z biznesu Elektryfikacji ABB w Polsce.
Jak się okazuje, około 40% projektów badawczo-rozwojowych ABB w obszarze elektryfikacji dotyczy dziś technologii kluczowych dla centrów danych nowej generacji. Obejmują one m.in. dystrybucję prądu stałego, zabezpieczenia, architekturę elektryczną oraz zaawansowane systemy chłodzenia, przygotowane na znacznie wyższe obciążenia energetyczne.
Współpraca z NVIDIA koncentruje się także na rozwoju infrastruktury dla tzw. „fabryk AI” – obiektów o skali gigawatowej, projektowanych z myślą o masowym trenowaniu modeli AI. ABB wspiera prace nad architekturą DC dla szaf serwerowych o mocy rzędu 1 MW oraz dużych instalacji planowanych do wdrożeń po 2027 roku.
„Wzrost zapotrzebowania na moce obliczeniowe wymusza nowe podejście do dystrybucji energii. Przejście na architekturę 800 V DC jest kluczowe dla budowy infrastruktury o wysokiej gęstości, niezbędnej dla kolejnej generacji AI” – uważa Dion Harris, dyrektor ds. infrastruktury HPC, chmury i AI w NVIDIA.
Znaczenie tych zmian rośnie również w Polsce. Z prognoz branżowych wynika, że łączna moc krajowych centrów danych może przekroczyć 500 MW do końca dekady, a ich roczne zużycie energii zbliżyć się do 9 TWh. W tym kontekście kluczowe staje się nie tylko tempo rozbudowy infrastruktury, lecz także jej efektywność energetyczna.







