Możliwość szerokiego wykorzystania danych jako podstawy do podejmowania decyzji i automatyzacji procesów stwarza nowe perspektywy optymalizacji biznesu oraz jego rozwoju we wszystkich branżach. Problemem staje się jednak utrzymanie odpowiednio wydajnej infrastruktury IT koniecznej do obsługi danych, szczególnie w kontekście zastosowania rozwiązań AI. W miarę jak na rynku upowszechnia się wiedza na temat możliwości wykorzystania nowych technologii analitycznych, na czele ze sztuczną inteligencją, pojawiają się nowe pomysły na ich zastosowanie. Oczekiwania w zakresie szybkiej dostępności złożonych analiz opartych na rozległych zbiorach danych, także nieustrukturyzowanych, przekłada się na radykalny wzrost mocy obliczeniowej wymaganej do obsłużenia tych procesów. Niezależnie od rozwoju technologii i rosnącej efektywności przetwarzania, zwiększone zapotrzebowanie na moc obliczeniową powoduje, że środowiska IT stają się coraz bardziej energochłonne. To z kolei oznacza zupełnie nową skalę wyzwań towarzyszących utrzymaniu nowego typu infrastruktury IT. 1. wyzwanie: modernizacja systemów chłodzenia Na przestrzeni ostatnich lat obserwujemy systematyczny wzrost mocy obliczeniowej, skoncentrowanej w szczególności w serwerowniach firmowych i komercyjnych centrach danych. Serwery wyposażone w coraz potężniejsze procesory wymagają coraz większych ilości energii. W skali szaf serwerowych przekłada się to na kilkukrotny wzrost gęstości mocy. Standardem są dziś rozwiązania 20 kW na szafę, podczas gdy dekadę temu było to 2—5 kW. W przypadku zastosowań związanych ze sztuczną inteligencją czy wysoce wydajnych systemów HPC powszechnie wykorzystywane są już rozwiązania o gęstości mocy na poziomie kilkudziesięciu kW. Do użytku trafiają też wyspecjalizowane pod kątem AI szafy serwerowe o mocach liczonych w setkach kW. W warunkach tak wysokiej gęstości mocy tradycyjne systemy chłodzenia powietrzem mają ograniczoną efektywność, co czyni je niewystarczającymi dla rozbudowanych konfiguracji serwerowych. Infrastruktura IT wyspecjalizowana na potrzeby AI wymaga zastosowania zupełnie innych metod chłodzenia. W odpowiedzi na te potrzeby już dziś, na coraz szerszą skalę, wdrażane są systemy chłodzenia z wykorzystaniem cieczy. Ciecz ma lepsze właściwości termiczne niż powietrze, co sprawia, że tego typu systemy chłodzenia mogą obsłużyć większe ilości ciepła. Zastosowanie systemów chłodzenia cieczą umożliwia również poprawę efektywności odbierania ciepła z infrastruktury IT, ogranicza wymagania w zakresie wentylacji i klimatyzacji, ale też pozwala na bardziej punktowe chłodzenie najbardziej newralgicznych komponentów. W efekcie, systemy chłodzenia cieczą charakteryzują się wyższą efektywnością energetyczną, zaś ich wykorzystanie pozwala ograniczyć globalne zużycie energii w centrum danych. Redefinicja modelu chłodzenia w istniejących serwerowniach wymaga najczęściej znaczących nakładów finansowych, ale równolegle może przynieść realne oszczędności. Duże znaczenie ma tu oczywiście efekt skali. Według szacunków Hewlett Packard Enterprise, zastosowanie systemów chłodzenia cieczą w centrum danych obsługującym 10 tys. serwerów pozwala na zmniejszenie kosztów nawet o 86% rocznie (w porównaniu z konfiguracją opartą na chłodzeniu powietrzem). W ten sposób możliwe jest zmniejszenie śladu węglowego nawet o 87%. Poprawny dobór modelu chłodzenia jest kluczowy, ponieważ bez odpowiednio wydajnych systemów schładzania zaawansowana infrastruktura IT nie będzie prawidłowo działać i może zagrozić ciągłości działania procesów biznesowych. Zbyt wysoka temperatura to bowiem wciąż jeden z najważniejszych czynników ryzyka awarii w serwerowni. 2. wyzwanie: koszty energetyczne Uruchomienie infrastruktury IT na potrzeby AI ma bezpośrednie przełożenie na wzrost konsumpcji energii, a więc także kosztów prądu. Ponadto, w przypadku, gdy na etapie projektowania firmowej serwerowni nie przykładano należytej wagi do kwestii efektywności energetycznej, wspomniany wzrost kosztów może okazać się znaczący. Przy infrastrukturze wysokiej gęstości wzrasta bowiem zapotrzebowanie energetyczne całego ekosystemu rozwiązań istniejących w serwerowni, a nie tylko sprzętu IT. W ślad za zwiększeniem potrzeb energetycznych firmowej serwerowni pojawia się m.in. konieczność zweryfikowania, czy lokalny dostawca prądu będzie w stanie sprostać tym rosnącym wymaganiom. W przypadku typowych serwerowni skala wzrostów nie powinna być tak duża, by było to realnym problemem. Jest to jednak obszar wymagający uwagi. Należy też pamiętać, że organizacje, których infrastruktura nie została uznana za krytyczną, mogą mieć do czynienia z ryzykiem wstrzymania dostaw energii. Pod kątem takiego scenariusza — lub po prostu, aby zabezpieczyć się przed awarią zasilania podstawowego — konieczne jest zbudowanie odpowiedniego zaplecza w postaci zasilania awaryjnego. W tym obszarze nowa infrastruktura wysokiej gęstości również generuje konieczność rozbudowy lub wymiany obecnej instalacji. Wzrost mocy firmowej serwerowni może mieć też implikacje w zakresie obowiązków raportowania i optymalizacji efektywności energetycznej. Dyrektywa EED (Energy Efficiency Directive), której przepisy weszły w życie 10 października 2023 roku, obejmuje obowiązkiem raportowania wszystkie serwerownie o mocy przekraczającej 500 kW, również niekomercyjne. Zalecenia obejmują np. raportowanie zainstalowanej mocy, ilości danych, zużycia energii, PUE, wykorzystania ciepła odpadowego, zużycia wody i wykorzystania energii odnawialnej. Poza tym, zgodnie z jej wytycznymi, istniejące centra danych od 1 lipca 2026 roku, pod rygorem znaczących kar, muszą dysponować wskaźnikiem PUE sięgającym maksymalnie 1,5. Cztery lata później obligatoryjna stanie się efektywność zużycia energii na poziomie mniejszym lub równym 1,3. 3. wyzwanie: ciepło odpadowe Efektem dużych potrzeb energetycznych nowoczesnego sprzętu IT, w tym m.in. układów GPU, jest produkcja znacznych ilości ciepła odpadowego, a więc energii, którą można ponownie wykorzystać. Trudno oczekiwać, aby wszystkie firmowe serwerownie zostały wyposażone w technologie odzysku energii cieplnej na dużą skalę. Niewykluczone są jednak mniejsze projekty, zakładające, przykładowo, wykorzystanie ciepła odpadowego do ogrzewania firmowych budynków. Największe wyzwanie w tym obszarze stoi natomiast przed operatorami centrów danych, które wraz ze wzrostem mocy będą generować gigantyczne wręcz ilości ciepła. W takich ośrodkach kluczowa staje się kwestia zagospodarowania ciepła odpadowego, która wymaga wdrożenia dodatkowych rozwiązań technologicznych. Outsourcing i kolokacja dodatkowymi alternatywami Zagwarantowanie odpowiednich poziomów energii, optymalizacja efektywności energetycznej, modernizacja systemów chłodzenia oznaczają zdecydowany wzrost wymagań wobec możliwości firmowych serwerowni. Nie bez powodu widać w tym obszarze postępującą specjalizację – coraz więcej organizacji decyduje się na rezygnację z samodzielnego utrzymania infrastruktury IT, wybierając różnego rodzaju outsourcing, kolokację do profesjonalnych centrów danych lub przeniesienie obciążeń do chmury obliczeniowej. Zapewnienie właściwych warunków do działania systemów wysokiej gęstości, w tym infrastruktury dedykowanej AI, winduje poziom skomplikowania na jeszcze wyższy poziom. Niewykluczone zatem, że dla firm zainteresowanych uruchomieniem większych projektów AI, skorzystanie z usług profesjonalnych centrów danych będzie najbardziej efektywnym rozwiązaniem. Nowe obciążenia wymagają efektywnego chłodzenia Rozwój technologii chłodzenia cieczą koncentruje się dziś głównie wokół dwóch koncepcji – odprowadzania ciepła bezpośrednio z jego źródeł, a więc procesorów i innych komponentów poprzez dedykowane wymienniki ciepła lub chłodzenia zanurzeniowego. Pierwsza koncepcja Pierwszy ze scenariuszy zakłada wpompowanie płynu dielektrycznego do serwera tak, aby za pośrednictwem precyzyjnego systemu hydraulicznego krążył on między wymiennikami ciepła zainstalowanymi na chłodzonych komponentach a znajdującą się poza serwerem jednostką dystrybucyjną, gdzie ulega ochłodzeniu. Druga koncepcja Z kolei chłodzenie zanurzeniowe (immersyjne) idzie o krok dalej. Zakłada, że cały serwer lub jedynie procesory pracują zanurzone w płynie chłodzącym. Takie podejście pozwala na zapewnienie jeszcze wyższej efektywności odprowadzania ciepła. W obu przypadkach ciepło odpadowe jest odprowadzane poza przestrzeń serwerową. Podsumowanie Dedykowane dla centrów danych rozwiązania chłodzenia cieczą nie różnią się w istocie od rozwiązań spotykanych we wspomnianych systemach klasy HPC, rozwiązań dla przemysłu czy chłodzenia zaawansowanego sprzętu dla graczy. Inna jest oczywiście skala i zakres działania.[/box]