Sztuczna inteligencjaInfrastrukturaCIO
Schneider Electric: Chcemy, aby nasze rozwiązania stanowiły wzorzec dla standardów obsługi AI w centrach danych
WYWIAD
Z Markiem Garnerem, wiceprezesem firmy Schneider Electric odpowiedzialnym za pion Secure Power w Europie rozmawiamy o transformacji centrów danych i niezbędnej specjalizacji takich ośrodków, wyzwaniach w projektowaniu data center, specyfice infrastruktury wykorzystywanej pod kątem przetwarzania brzegowego, a także znaczeniu projektów referencyjnych opracowanych we współpracy z firmą NVIDIA i niezbędnych kierunkach transformacji sieci energetycznych.
Projekty referencyjne przygotowane we współpracy z firmą NVIDIA koncentrują się wokół potrzeb typowych dla budowy infrastruktury data center przeznaczonej w szczególności do obsługi obciążeń związanych ze sztuczną inteligencją. Chcemy, aby pełniły one rolę wzorców pozwalających na wypracowanie branżowych standardów w zakresie obsługi sztucznej inteligencji na poziomie centrów danych. Uwzględniamy przy tym kwestie, takie jak: dystrybucja energii, odprowadzanie ciepła, konstrukcja budynku, czy wysoka dostępność.
Jakich kwestii dotyczą główne wyzwania w zakresie infrastruktury centrów danych?
Myślę, że największe wyzwanie, przed którym stoi obecnie większość operatorów centrów danych, ma związek z dostępnością zasilania i odpowiedniej infrastruktury energetycznej. W ten aspekt wchodzi także geopolityka. W kontekście budowy i rozwoju centrów danych pod uwagę należy wziąć także kwestie dotyczące łączności, a więc możliwości zestawienia takich połączeń pomiędzy data center a istotnymi węzłami globalnej infrastruktury telekomunikacyjnej, które zapewnią jak najmniejsze opóźnienia transmisji oraz wysoką odporność i nadmiarowość łączy.
Wreszcie, na to wszystko nakłada się też ograniczona dostępność gruntów w lokalizacjach, w których zapewniona jest odpowiednia moc zasilania i dostępność łączy, a lokalne przepisy i uwarunkowania pozwalają na budowę centrum danych. Co ważne, najczęściej wszystkie te potrzeby są spełnione w pobliżu miast czy ośrodków przemysłowych. To zaś w naturalny sposób wymusza na operatorach data center zaangażowanie w funkcjonowanie lokalnych społeczności. Kwestie te muszą zostać uwzględnione już na etapie projektowania centrum danych.
W jaki sposób warto podejść do projektowania centrów danych w czasach powszechnej cyfryzacji i rosnącego zainteresowania sztuczną inteligencją?
Kluczowe znaczenie ma tu oczywiście właściwe zwymiarowanie data center. To z kolei jest pochodną prognozowanego obciążenia i specjalizacji centrum danych, nawet do poziomu pojedynczych szaf serwerowych. Potrzeby związane ze specjalizacją centrum danych pod kątem konkretnych obciążeń stanowią zresztą osobną grupę wyzwań także w kontekście modernizacji istniejących centrów danych.
Trzeba pamiętać, że obciążenia związane z tradycyjnym przechowywaniem czy przetwarzaniem danych mają zupełnie inną specyfikę niż te typowe dla zastosowań związanych ze sztuczną inteligencją. Główne różnice dotyczą tzw. gęstości mocy. W praktyce oznacza to konieczność skoncentrowania większej mocy obliczeniowej – czyli także mocy zasilającej i generowanego ciepła – na określonej powierzchni data center.
Wielu operatorów centrów danych zadaje sobie zatem pytanie, w jaki sposób zmodernizować infrastrukturę data center, tak, aby mogła ona obsługiwać szafy serwerowe o mocy sięgającej 60 kW zamiast typowych 20 kW. Taką modernizację można przeprowadzić, oczywiście w granicach możliwości infrastruktury danego centrum danych. Najczęściej będzie to jednak oznaczało potężne inwestycje oraz konieczność zwiększenia ilości niewykorzystanych przestrzeni data center. Decyzje nie są tu więc oczywiste. Pojawia się potrzeba projektowania elastycznych centrów danych, które będzie można w zwinny sposób dostosowywać do potrzeb. Jeśli wziąć pod uwagę, jak szybko rośnie skala wykorzystania wszelkich rozwiązań bazujących na AI, to można prognozować, że tego typu wyzwań będzie przybywało.
Jakiego rodzaju wsparcie Schneider Electric zapewnia klientom w zakresie analizy możliwości modernizacji centrów danych – i projektowania nowych ośrodków wyspecjalizowanych pod kątem obciążeń określonego rodzaju?
Doradzamy, jak zoptymalizować centra danych pod kątem efektywności operacyjnej, ale też – priorytetów dotyczących zrównoważonego rozwoju. Posiadamy, przykładowo, liczący kilkaset osób zespół doradztwa technicznego. Możemy zatem przeprowadzić m.in. całościowy i wielowymiarowy audyt istniejących obiektów data center.
Nasi konsultanci współpracują np. z Royal Mail w ramach projektu zmierzającego do modernizacji wszystkich centrów danych brytyjskiego operatora pocztowego. Prowadzimy więc analizy pozwalające na poprawę wydajności operacyjnej, ale ostatecznie chodzi też o całościową ocenę stanu istniejącej infrastruktury, zbadanie potrzeb i stworzenie planu oraz harmonogramu modernizacji, który będzie uwzględniał aktualne realia i możliwości, także w kontekście zrównoważonego rozwoju.
Chodzi o to, aby zaplanować rozbudowę i wymianę sprzętu na taki, który posłuży dłużej i nie wpłynie na zwiększenie emisji CO2. Weźmy, przykładowo, systemy podtrzymania zasilania. Akumulatory można po prostu wymienić na nowe, ale można także kompleksowo przeanalizować ich stan, na bieżąco monitorować wydajność, podejmować proaktywne działania i w odpowiedzialny sposób przedłużyć żywotność bez potrzeby generowania dodatkowego śladu węglowego. Takie podejście proponujemy wszystkim klientom. Moim zdaniem jest to świetny przykład na to, jak działalność Schneider Electric wpisuje się w realia tzw. gospodarki obiegu zamkniętego.
obciążenia związane z tradycyjnym przechowywaniem czy przetwarzaniem danych mają zupełnie inną specyfikę niż te typowe dla zastosowań związanych ze sztuczną inteligencją. Główne różnice dotyczą tzw. gęstości mocy. W praktyce oznacza to konieczność skoncentrowania większej mocy obliczeniowej – czyli także mocy zasilającej i generowanego ciepła – na określonej powierzchni data center. Wielu operatorów centrów danych zadaje sobie zatem pytanie, w jaki sposób zmodernizować infrastrukturę data center, tak, aby mogła ona obsługiwać szafy serwerowe o mocy sięgającej 60 kW zamiast typowych 20 kW. Taką modernizację można przeprowadzić, oczywiście w granicach możliwości infrastruktury danego centrum danych. Najczęściej będzie to jednak oznaczało potężne inwestycje oraz konieczność zwiększenia ilości niewykorzystanych przestrzeni data center. Decyzje nie są tu więc oczywiste.
Innymi słowy, monitoring działania całej infrastruktury, a więc wykorzystanie technologii cyfrowych staje się podstawą do optymalizacji data center…
Właśnie tak. Co więcej, monitorując na bieżąco działanie wszystkich kluczowych elementów infrastruktury data center, zyskujemy tak naprawdę szczegółowe dane o działaniu całego centrum danych. Dzięki temu możemy zrozumieć jakie zjawiska zachodzą w całym ekosystemie data center, możemy przewidywać trendy, zoptymalizować utrzymanie, lepiej planować inwestycje – i osiągane zwroty. Na bazie monitoringu data center możemy zbudować całościowy cykl modernizacji i optymalizacji data center, a więc uruchomić pewnego rodzaju pętlę ciągłego doskonalenia i poprawy efektywności. Tego typu projekty realizujemy dziś wspólnie z wieloma klientami. Co więcej, nie zamykamy się jedynie na centra danych. W analogiczny sposób możemy monitorować infrastrukturę innych obiektów, w tym nieruchomości biurowych czy zakładów produkcyjnych.
Praktyka pokazuje, że potencjał do przemyślanych, czasem punktowych, ale realizowanych w trybie ciągłym optymalizacji jest ogromny – zwłaszcza tam, gdzie istniejąca infrastruktura techniczna jest przestarzała lub istnieją nowe technologie pozwalające rozwinąć jej możliwości. Punktem wyjścia jest jednak zawsze zbudowanie odpowiedniej sieci pomiarowej.
Czy doświadczenia i dobre praktyki wypracowane przez operatorów centrów danych – lub całej branży – mogłyby przydać się także w innych sektorach?
Myślę, że tak. Branża data center – przy czym dotyczy to także dostawców, takich jak my – powinna wręcz wyjść poza swoją strefę komfortu i zaangażować we współpracę z podmiotami z innych gałęzi gospodarki. Centrów danych będzie przybywać, a my nie funkcjonujemy przecież w bańce oderwanej od reszty gospodarki i społeczeństwa. Działa to zresztą w dwie strony.
Na przestrzeni niemal 20 lat pracy w strukturach Schneider Electric brałem udział m.in. w projektach dla sektora kolejowego, branży hotelarskiej, handlu detalicznego czy ochrony zdrowia. Poznałem wówczas wiele dobrych praktyk, które w tych branżach znajdują zastosowanie w kontekście zarządzania majątkiem i infrastrukturą. Myślę, że wiele z nich może zostać przeniesione na grunt centrów danych – tym bardziej że wraz z rozwojem technologii pojawiają się nowe możliwości i scenariusze. W analogiczny sposób praktyki z mocno osadzonej w świecie nowych technologii branży data center mogą sprawdzić się w innych sektorach.
Co, w kontekście funkcjonowania centrów danych, zmienia idea przetwarzania brzegowego?
Faktem jest, że na brzegu sieci nie będziemy w stanie zapewnić wydajności przetwarzania danych na poziomie analogicznym do tego, jakim dysponować będą typowe centra danych, czy nawet publiczna chmura obliczeniowa. Nie o to jednak chodzi. Koncepcja przetwarzania brzegowego to zmiana pewnego paradygmatu, inne podejście do przetwarzania danych.
Model brzegowy oznacza większe rozproszenie procesów przetwarzania i przesunięcie ich bliżej źródeł danych lub miejsc ich wykorzystania. Już dziś wiele organizacji decyduje się na uruchomienie obciążeń AI właśnie na brzegu infrastruktury. Ten trend będzie postępował. Z naszych analiz wynika, że o ile w 2023 roku aż 95% obciążeń związanych ze sztuczną inteligencją było obsługiwanych w sposób centralny, tak w 2028 roku będzie to jedynie 50%. Oznacza to, że za 4 lata co druga operacja związana z AI będzie realizowana w chmurze albo w ramach infrastruktury brzegowej.
Co różni projektowanie centrum danych na brzegu sieci od budowania centralnego data center? Na pewno nie jest to tylko skala…
Zacząłbym od kwestii wspólnych dla centralnych, dużych centrów danych, jak również tych mniejszych, brzegowych ośrodków. Jedną z najważniejszych jest zasilanie i stale rosnące potrzeby w tym wymiarze. Wzrost gęstości obciążeń na brzegu infrastruktury może jednak rodzić nowe rodzaje wyzwań w zakresie dostępności i ciągłości zasilania oraz infrastruktury telekomunikacyjnej w lokalizacjach brzegowych. Warto też zastanowić się nad możliwościami wykorzystania takich ośrodków pod kątem wsparcia dla potrzeb lokalnych społeczności.
Warto przy tym pamiętać, że podobnie jak różna jest skala centralnych i brzegowych centrów danych, tak inne będą też procesy związane z ich obsługą i utrzymaniem. Wynika to m.in. z dostępności kadr. W centralnych data centers zwykle dyżuruje zespół specjalistów. Będąc na miejscu, są oni w stanie na bieżąco rozwiązywać ewentualne problemy. W przypadku brzegowych centrów danych trudno mówić o takiej dostępności niezbędnych kompetencji na miejscu. Sposobem na obejście tego problemu będzie automatyzacja i predykcja, oparta na monitoringu, zdalnej diagnostyce i właściwie wykorzystanym oprogramowaniu. Pomocne może być tu wykorzystanie modułowych centrów danych – wyposażonych, skonfigurowanych i przetestowanych już w naszej fabryce.
Jakie znaczenie w kontekście projektowania wyspecjalizowanych data centers mają projekty architektury referencyjne, analogiczne do tej, którą opracowali Państwo wspólnie z firmą NVIDIA?
Projekty referencyjne Schneider Electric, w tym te, które opracowaliśmy wspólnie z ekspertami firmy NVIDIA, stanowią przykład pewnych rozwiązań i dobrych praktyk, adresując przy tym wyzwania, na które należy zwrócić uwagę na etapie projektowania centrów danych o określonej specjalizacji. Nie są to gotowe projekty budowlane czy techniczne.
I tak, projekty referencyjne przygotowane we współpracy z firmą NVIDIA koncentrują się wokół potrzeb typowych dla budowy infrastruktury data center przeznaczonej w szczególności do obsługi obciążeń związanych ze sztuczną inteligencją. Chcemy, aby pełniły one rolę wzorców pozwalających na wypracowanie branżowych standardów w zakresie obsługi sztucznej inteligencji na poziomie centrów danych. Uwzględniamy przy tym kwestie, takie jak: dystrybucja energii, odprowadzanie ciepła, konstrukcja budynku, czy wysoka dostępność. Z kolei zespół firmy NVIDIA podchodzi do potrzeb względem centrów danych z perspektywy skupionej wokół serwerów i tzw. przestrzeni „white space”. Dzięki naszej współpracy powstała zatem kompleksowa architektura referencyjna obejmująca całościowo potrzeby centrów danych wyspecjalizowanych pod kątem AI.
Kluczową kwestią dla centrów danych jest poszukiwanie możliwości ograniczenia śladu węglowego. W jaki sposób Schneider Electric odpowiada na potrzeby w tym obszarze?
Podejmujemy działania zmierzające do przedłużenia cyklu życia naszych produktów. Chodzi o to, aby nasi klienci mogli jak najdłużej, w bezpieczny sposób, korzystać z rozwiązań Schneider Electric, które już posiadają. Takie podejście w naturalny sposób wpływa na możliwość ograniczenia śladu węglowego.
Z drugiej strony, stale rozwijamy nasze rozwiązania. Innowacje dotyczą wielu obszarów. Jednym z nich jest miniaturyzacja. Przykładowo, nasz najnowszy, wysoce wydajny zasilacz bezprzerwowy z rodziny Galaxy jest o jedną trzecią mniejszy od swojego poprzednika. Oznacza to nie tylko możliwość zmniejszenia śladu węglowego, ale też – oszczędność powierzchni data center.
Kolejny obszar dotyczy efektywności chłodzenia – i szerzej, zarządzania ciepłem. Możliwość podniesienia temperatury w centrum danych oznacza, że infrastruktura chłodząca może pracować mniej intensywnie. Pozwala to na zmniejszenie rozmiarów generatorów i infrastruktury elektrycznej z nimi związanej. Pokazuje to, że innowacje w zakresie technologii odprowadzania ciepła mają ogromny wpływ na całą infrastrukturę centrum danych. Co więcej, wspólnie z dostawcami infrastruktury serwerowej analizujemy możliwości oraz skutki podniesienia temperatury w przestrzeni roboczej centrum danych. Poszukując najbardziej efektywnych rozwiązań, sprawdzamy m.in. wpływ podniesienia temperatury serwera o 1 °C na wydajność i stabilność centrum danych, a także cykl życia naszych rozwiązań.
Faktem jest, że technologie wykorzystywane w dzisiejszych centrach danych są bardzo zaawansowane. Myślę jednak, że jeśli w holistyczny sposób przyjrzymy się funkcjonowaniu data center w całym cyklu życia takiej infrastruktury, to znajdziemy nowe, ciekawe obszary dla innowacji.
Mówiąc o dostępności zasilania, warto wspomnieć też o funkcjonowaniu sieci dystrybucyjnych, których możliwości w wielu krajach okazują się niewystarczające względem potrzeb, także w kontekście centrów danych. W jakim zakresie biorą Państwo udział w inicjatywach zmierzających do transformacji sieci przesyłowych?
Modernizacja i transformacja sieci dystrybucyjnych to faktycznie istotna kwestia. W ramach pionu Power Systems współpracujemy zarówno z dostawcami i dystrybutorami energii, jak i instytucjami publicznymi i organizacjami pozarządowymi. Staramy się pokazywać m.in. możliwości modernizacji i potencjał transformacyjny sieci dystrybucyjnych.
Zawsze podkreślamy, że kluczowe znaczenie ma właściwe opomiarowanie infrastruktury dystrybucyjnej. Tylko dzięki możliwości ciągłego, proaktywnego monitorowania działania tych, jakże złożonych sieci realne będzie zrozumienie faktycznych problemów związanych z ich działaniem. Wówczas możliwe stanie się budowanie dynamicznych sieci dystrybucyjnych. Jako Schneider Electric zapewniamy stosowne rozwiązania.
Cała idea polega na tym, aby do sieci dystrybucyjnych wprowadzić pewną inteligencję, a także łączność niezbędną do automatycznego sterowania siecią oraz dostosowywania jej działania do zmieniających się obciążeń i uwarunkowań. Kluczowe znaczenie ma tu jednak możliwość gromadzenia i przetwarzania danych dotyczących działania sieci energetycznych w czasie rzeczywistym. Wierzę, że nowoczesne centra danych, zapewniające fundament dla sprawnego przetwarzania danych o rozproszonej sieci, mają tu do odegrania ogromną rolę.
Pole do innowacji w tym obszarze jest ogromne. Skoro w niektórych krajach straty energii w sieciach dystrybucyjnych sięgają nawet kilkudziesięciu procent, to już niewielkie usprawnienia w tym obszarze przyniosą ogromne efekty. Możliwe zatem, że potrzeba budowy nowych elektrowni stanie się mniej paląca, a zagrożenia związane z dostępnością energii mniejsze. Myślę, że ze względu na postępującą transformację energetyki, ale też charakterystykę struktury produkcji i konsumpcji energii, w Polsce takie rozwiązania sprawdzą się bardzo dobrze.