Artykuł - 30 lat branży IT
W Polsce powstał największy rynek data center w regionie
W ciągu 10 lat czterokrotnie wzrosła powierzchnia komercyjnych data center w Polsce. Na koniec 2019 roku – jak prognozuje PMR – ma to być już 144 tys. m kw. W roku 2020 jego wartość ma przekroczyć 2 mld zł! Oznacza to, że polski rynek usług data center jest największym rynkiem w regionie Europy Środkowo-Wschodniej.
Z kolei zdaniem ekspertów Audytel, w 2018 roku zaobserwowano spadek dynamiki rozwoju sektora usług data center w Polsce. Według autorów raportu, jest to przejaw oczekiwania na konsolidację rynku, która ma stanowić kolejny impuls do rozwoju usług data center w Polsce. „Na rynek wszedł niedawno drugi branżowy – po Equinix – inwestor zagraniczny, firma EdgeConneX. Kupiła ona Linx Data Center. Niewykluczone, że pojawią się kolejni inwestorzy, tym bardziej że na sprzedaż wystawione są centra danych w różnych lokalizacjach, w tym obiekty o dużej, jak na polskie realia, skali. W ostatnim roku decyzję o sprzedaży centrum danych Onet.pl podjął Ringier Axel Springer. Z kolei nowego inwestora dla Grupy 3S poszukuje fundusz Enterprise Investors. Natomiast fundusz MCI.Private Ventures od 2016 roku konsekwentnie skupował akcje lidera rynku data center w kraju, spółki ATM. Obecnie kontroluje 95% akcji i może myśleć o wyjściu z inwestycji” – komentuje Paweł Olszynka, dyrektor Działu Doradztwa i Analiz Rynku ICT w PMR.
Dużo, małych centrów danych
Do grupy liderów rynku data center w Polsce należą firmy ATM, T-Mobile, Polcom i Beyond. Jednocześnie, zdaniem ekspertów firmy Audytel, rynek usług data center w Polsce charakteryzuje się znacznym rozdrobnieniem. Łączne udziały rynkowe 10 największych graczy na polskim rynku nie przekraczają bowiem 50% całości dostępnej powierzchni kolokacyjnej. Ponadto, ok. 60% komercyjnych centrów danych stanowią ośrodki o powierzchni poniżej 500 m kw. Jak wylicza Audytel, w Polsce działa 112 komercyjnych obiektów data center, w tym 65 obiektów o powierzchni powyżej 200 m2. Prognozy zakładają jednak tworzenie nowych, bardziej rozbudowanych centrów danych, spełniających najwyższe normy w zakresie bezpieczeństwa oraz dostępności.
„Stare, źle zabezpieczone, małe i nieefektywne kosztowo obiekty będą stopniowo likwidowane. Przyczyni się do tego presja kosztowa. Przy wysokim PUE i rosnących cenach energii, koszt tej ostatniej może przewyższać koszty samej kolokacji. Sprzyjać temu będzie także presja na wzrost bezpieczeństwa danych oraz zapewnienie ciągłości działania. Wejście dużych międzynarodowych graczy na rynek polski może dużo zmienić i przyspieszyć tempo rozwoju rynku oraz doprowadzić do realnej konsolidacji” – mówi Grzegorz Bernatek, ekspert Audytel. W efekcie, analitycy prognozują, że usługi data center i rynek przetwarzania w chmurze mają w Polsce dobre perspektywy wzrostu.
Niski wzrost podaży komercyjnych centrów danych
Audytel ocenia, że polski rynek data center ciągle znajduje się we wczesnym stadium rozwoju. Co prawda rośnie podaż powierzchni kolokacyjnej (5% w 2018 roku, z czego zajęte jest 67%), ale w Europie Zachodniej wzrost ten jest o wiele bardziej dynamiczny. W ciągu ostatnich 5 lat wynosił tam kilkanaście procent rocznie. Wystarczy tylko wspomnieć, że powierzchnia kolokacyjna dostępna na każdym z dwóch największych rynków europejskich (Wielka Brytania i Niemcy) przekracza 500 tys. m kw. Według PMR, w Polsce ma to być na koniec 2019 roku ok. 144 tys. m kw.
To jednak w Europie Zachodniej zazwyczaj największe firmy z USA czy Chin otwierają data center, gdy wchodzą na rynek europejski. W Polsce brakuje więc obiektów „dużej skali”. „W Polsce za duże centrum danych uchodzi takie, które ma powierzchnię powyżej 1000 m2, tych jest jednak wciąż niewiele” – twierdzi Grzegorz Bernatek. Jednocześnie, podczas gdy zachodnioeuropejskie data center charakteryzuje specjalizacja, to w Polsce niemal wszyscy gracze na rynku starają się oferować jak najszersze portfolio usług: od wynajmu powierzchni, poprzez hosting, po cloud computing.
Ustawa o KSC wymusi korzystanie z komercyjnych data center
Popyt na usługi data center powinny napędzać regulacje, w tym Ustawa o Krajowym Systemie Cyberbezpieczeństwa. Wskazuje ona m.in. na szczególną rolę tzw. operatorów usług kluczowych. Są to firmy i instytucje świadczące usługi o istotnym znaczeniu dla utrzymania krytycznej działalności społecznej lub gospodarczej. Docelowo ma ich być około 500. Wszystkie będą musiały dostosować swoje systemy IT do nowych wymogów bezpieczeństwa.
Z badania PMR – zrealizowanego wśród dużych i średnich data center w Polsce – wynika, że całkowity koszt posiadania usługi pozostaje najważniejszym czynnikiem przy wyborze dostawcy usług realizowanych w komercyjnym centrum danych. Istotne są też standard obiektu i poziom redundancji kluczowych elementów, a dla dużych firm także warunki SLA. Stopniowo na znaczeniu zyskują certyfikaty Tier/Rated.
Regulacje a koszty energii w data center
Coraz większym problemem w polskich centrach danych mogą być w najbliższej przyszłości rosnące koszty energii elektrycznej. Jak szacuje PMR, przydział mocy dla komercyjnych centrów danych w Polsce to już 120 MW. Według szacunków centrum badawczego ABB, aż 40% energii zużywanej przez centra danych przeznaczane jest wyłącznie na zasilanie systemów chłodzenia. To generuje ogromne koszty dla firm. DCD Census ocenia, że w niektórych przypadkach aż 50% wydatków operacyjnych operatora data center przeznaczane jest tylko na ten cel. Dlatego wdrażanie energooszczędnych systemów chłodzących staje się coraz bardziej palącą potrzebą.
W najbliższych latach na zmiany w obszarze chłodzenia centrów danych na pewno będą wpływać również nowe regulacje prawne, mające na celu ochronę środowiska. W Europie już w 2015 roku wyszło unijne rozporządzenie w sprawie chłodzących F-gazów, które zakładało stopniowe ograniczenie stosowania m.in. gazu HFC, tak aby w 2025 roku redukcja wyniosła aż 79%. Na rynku wywołało to z jednej strony wzrost cen środków chłodniczych, z drugiej – wymusiło innowacyjne podejście i rozwój nowych technologii chłodzących serwerownie. W Polsce już 70% największych centrów danych w kraju stosuje Free Cooling jako element chłodzenia serwerowni. Mówi się też o tym, że w przyszłym roku Unia Europejska narzuci obowiązek podwyższenia temperatury panującej w centrum danych, aby w ten sposób ograniczyć zużycie energii na chłodzenie. Już dziś serwery mogą pracować w temperaturze 35 stopni Celsjusza, a zwykle temperatura w serwerowni utrzymywana jest na poziomie 18-22 stopni.
KOMENTARZ EKSPERTA
Trendy w centrum danych
Cyfrowa transformacja to proces nieodwracalny. Według prognoz IDC, co najmniej 5% globalnego tworzenia wartości może zostać zdigitalizowane do 2021 roku. W obliczu wysokich kosztów energii elektrycznej, coraz ważniejsze staje się dziś dla firm zwiększanie wydajności centrów danych. Jeden z najnowszych trendów – Edge Computing – oznaczający przetwarzanie danych bliżej miejsca, w którym powstają, czyli na tzw. krawędzi internetu, podpowiada kierunek rozwoju branży IT. Dodajmy do tego takie usługi jak przetwarzanie w chmurze czy zastosowanie prądu stałego w centrum danych. Otrzymamy wówczas odpowiedź na pytanie o aktualną rolę data center w transformacji cyfrowej przedsiębiorstw.
Multicloud trend
Według IDC, hybrydowe środowisko z wieloma chmurami zdominuje przyszłą infrastrukturę IT. Jest ku temu wiele przesłanek. Po pierwsze, nie ma jednego dostawcy usług w chmurze, który spełniałby wszystkie wymagania. Ponadto wydajność, opóźnienia, zgodność i zarządzanie ryzykiem często muszą być wdrażane indywidualnie, czasami z różnymi podmiotami. Typowe usługi w chmurze obejmują usługi infrastrukturalne (IaaS), aplikacje (SaaS) i platformy programistyczne (PaaS). Jeśli taki mix staje się zbyt skomplikowany, można polegać na zewnętrznym zarządzaniu. Wspierając ten rozwój, firma Rittal wraz ze swoimi partnerami wprowadziła do oferty gotowe centra danych, w tym platformy chmurowe i usługi zarządzania.
Trend w kierunku Edge Computing
W niedalekiej przyszłości wiele firm będzie intensywniej koncentrować się na tworzeniu zdecentralizowanych struktur informatycznych. Główną siłą napędową będą nowoczesne rozwiązania Industry 4.0 (IoT). Głównie dzięki zainstalowanym automatycznym urządzeniom produkcyjnym. Duża ilość danych z czujników musi być przetwarzana na miejscu w czasie rzeczywistym. Inne elementy internetu rzeczy, takie jak inteligentne domy, miasta, zegarki czy samochody, także wymagają dodatkowych centrów danych. Zdaniem analityków, do końca 2020 roku 40% danych IoT może być przetwarzane przez najnowsze systemy IT. Ponadto nowy standard mobilny 5G znacznie zwiększy przepływ ilości przetwarzanych danych. Każdy, kto zechce uruchomić infrastrukturę IoT w 5G, powinien zapewnić aplikacjom możliwość korzystania z pełnej przepustowości sieci. Do tego celu wykorzystywane są centra przetwarzania danych Edge, umożliwiające szybkie i zdecentralizowane tworzenie infrastruktury informatycznej. Co je wyróżnia? To gotowe środowiska IT, modułowe i skalowalne jako szafy lub kompletne rozwiązania kontenerowe. Istniejące opcje rozbudowy sprawiają, że rozwiązania te są odpowiednie dla firm każdej wielkości. Komponenty do chłodzenia, zasilania, monitorowania i bezpieczeństwa są wstępnie zainstalowane i spójne ze sobą. Dzięki temu bardzo szybko można stworzyć infrastrukturę gotową na architekturę Edge Computing.
Wyższa sprawność energetyczna dzięki szafom z zasilaniem prądem stałym
Nadal potrzebne będą centralne i jednorodne centra przetwarzania danych hiperskali. Aby zapewnić najwyższy poziom wydajności, przepustowości i redundancji, opracowano infrastrukturę dla skalowalności poziomej. Jest to niezbędne do zapewnienia odporności na błędy i wysokiego poziomu dostępności. Operatorzy takich systemów stają przed wyzwaniem, jak zoptymalizować przyszłe koszty eksploatacji. Szafy ze zintegrowanym zasilaniem prądem stałym zapewniają doskonałe rozwiązanie dla większej efektywności energetycznej. Pojawiły się w związku z tym dwa nowe standardy szaf IT: OCP (Open Compute Project) i Open19. Wewnątrz jeden centralny zasilacz zasila aktywne komponenty IT napięciem stałym. Takie rozwiązanie obniża o około 5% koszty energii w każdej szafie. Operatorzy centrów danych, którzy nie są hiperskalerami, powinni rozważyć takie możliwości w najbliższym czasie.
Trendy w koncepcjach chłodzenia IT
W najbliższej przyszłości koncepcje dotyczące wykorzystania alternatywnej energii i chłodzenia będą bardzo istotne dla poprawy kosztów operacyjnych. Dostawcy usług informatycznych mogą osiągnąć korzystne wyniki dzięki pozyskaniu energii z odnawialnych źródeł. Często z chłodzeniem powietrzem lub wodą morską, by elastycznie móc powiązać je z modelami swoich usług. Jednym z przykładów jest Lefdal Mine Datacenter w Norwegii, gdzie na miejscu dawnej kopalni zbudowane zostało przez firmę Rittal centrum przetwarzania danych. Chłodzone wodą morską i wykorzystujące energię elektryczną z odnawialnych źródeł. Odzyskiwanie energii to kolejna koncepcja chłodzenia IT zapewniająca wyższą wydajność. Wykorzystuje się wtedy ciepło odpadowe wytwarzane w centrum danych do celów kontroli „klimatu budynku” – ogrzania ciepłej wody lub zasilania sieci ciepłowniczej.
Konrad Wójcik, Product Manager IT w firmie Rittal sp. z o.o