Cloud computingcentra danych / data centerInfrastrukturaCIOPolecane tematy

Jak przygotować infrastrukturę IT na wyzwania najbliższych miesięcy i lat?

Infrastruktura IT to rdzeń każdej organizacji. Wraz z dynamicznym rozwojem technologii, rośnie również złożoność związana z utrzymaniem jego odporności i wydajności. Do tego dochodzą przyszłe wyzwania i kryzysy, które mogą mieć różny wymiar i wpłynąć na ciągłość działania firmy. Dlatego, do rozwoju oraz osiągnięcia przyszłych celów biznesowych, niezbędna jest optymalizacja kilku kluczowych elementów składających się na stabilną i wydajną infrastrukturę IT.

Jak przygotować infrastrukturę IT na wyzwania najbliższych miesięcy i lat?

Według różnych badań, 75% polskich przedsiębiorstw korzysta wyłącznie z własnych serwerowni. To najczęściej kwestia mentalna, a więc wybór osób odpowiedzialnych za zarządzanie danymi w firmach, które nie chcą rezygnować z własnych serwerów. Właściciele firm cenią sobie bowiem ich bliskość, możliwość pełnej kontroli danych i analizy efektywności procesów. Taki stan rzeczy wynika też z profilu części przedsiębiorstw, który nie pozwala na wyprowadzanie infrastruktury na zewnątrz. Ponadto wciąż istotne są również obawy o bezpieczeństwo serwerów poza siedzibą firmy czy koszty związane z kolokacją. Powyższe powody sprawiają, że mimo wysokiej dostępności infrastruktury chmurowej, liczba firm pozostających przy rozwiązaniach on-premise nie maleje.

„Był okres, kiedy wszyscy migrowali się do chmury, bo chcieli być nowocześni i taki był trend, teraz trochę się to racjonalizuje. Rynek zaczął dostrzegać, że rozwiązania on-premise też mają swoje miejsce i nawet część workloudów jest do nich cofana” – wskazuje Patryk Dolewa, CIO firmie w Gemini. „Tam, gdzie potrzebujemy nowych usług, elastyczności i dużej skalowalności, chmura znakomicie się u nas sprawdza. Ale  w przypadku tradycyjnych systemów opartych na serwerach wirtualnych (np. Vmware) nie decydujemy się ich odpalać w chmurze, bo to jest po prostu nieekonomiczne” – dodaje.

Konieczne inwestycje

Technologie rozwijają się w niespotykanym dotąd tempie, co sprawia, że organizacje nie mogą pozostawać w tyle, muszą utrzymywać zwinność i odporność, jednocześnie starając się dotrzymywać tempa głównym trendom – nie tylko tym rynkowym, ale także dotyczącym infrastruktury IT. Oznacza to nic innego, jak potrzebę inwestycji oraz zmian i ulepszeń związanych ze sprzętem, optymalizacją, automatyzacją, bezpieczeństwem czy też przyjęciem usług w chmurze. Głównym celem tych działań ma być zapewnienie, aby infrastruktura IT nie była tylko aktualna, ale także skalowalna, bezpieczna i wydajna. Zdolna zarówno do obsługi bieżących operacji, jak i przyszłego wzrostu biznesu.

„W nadchodzącym roku zasadne mogą okazać się inwestycje w zaawansowane rozwiązania serwerowe, stawiając na elastyczność i efektywność. Dzięki naszej stabilnej pozycji na rynku i dywersyfikacji rozwiązań, dopuszczamy różne opcje vendorów. Cenimy dobrej jakości hardware oraz efektywne zarządzanie infrastrukturą, dlatego uważnie obserwujemy dynamiczne zmiany i rozwój produktów HPE” – komentuje najbliższe plany związane z rozwojem i modernizacją infrastruktury IT Mateusz Jabłoński, dyrektor ds. informatyki w spółce Mlekovita. „Rozważamy rozwiązania chmurowe, zarówno prywatne, jak i publiczne, z naciskiem na hybrydowe podejście, które zapewnia większą elastyczność. Natomiast w zakresie optymalizacji – poza wszechobecnymi dziś rozwiązaniami z zakresu automatyzacji opartej o AI – na pewno skupimy się na rozwiązaniach wirtualizacyjnych, a także zwrócimy większą uwagę na technologie konteneryzacji, które mogą znacząco poprawić naszą operacyjną wydajność” – dodaje.

Jak to zrobiło Gemini?

Sieć aptek Gemini ma już modernizację infrastruktury IT za sobą. Firma korzystała początkowo z kolokacji. W kolejnym etapie, na infrastrukturę IT spółki składała się zarówno chmura publiczna, kolokowana infrastruktura on-premise, gdzie zgromadzone zostały systemy, które nie zostały zaprojektowane pod kątem natywnej obsługi środowisk chmurowych. W tym przypadku mowa, przykładowo, o rozwiązaniach klasy ERP, WMS czy systemie do obiegu dokumentów zwirtualizowanym na bazie platformy VMware. Jak wygląda to zatem obecnie, po trwającym 5 miesięcy gruntownym projekcie odświeżenia infrastruktury IT?

„W ramach modernizacji zdecydowaliśmy się na model chmury prywatnej. Zainwestowaliśmy w nowe serwery, macierze wirtualne vSAN  zamiast klasycznych fizycznych macierzy. Zbudowaliśmy klaster serwerowy active-active czyli dwa data center rozdzielone w odległości ~50 km pracujące w pełnej synchronizacji real time, aby zapewnić sobie wysoką dostępność. Dodatkowo uruchomiliśmy trzecie, zapasowe data center w modelu Disaster Recovery as a Service. Gwarantuje nam ono – na poziomie VMware – możliwość replikacji maszyn wirtualnych w przypadku jakiegoś kryzysu” – wskazuje Patryk Dolewa. „Serwery i dyski zbudowaliśmy w oparciu o rozwiązania firmy Dell. Jeden klaster dedykowany jest dla rozwiązań Oracle, gdzie postawiliśmy na sprzęt o bardzo wysokim taktowaniu procesorów i niewielkiej liczbie rdzeni, aby maksymalnie wykorzystać licencje. Z kolei drugi, większy klaster hostuje wszystkie pozostałe systemy. Cała infrastruktura, czyli hosty i storage jest zwirtualizowana w oparciu o  technologię Vmware. Aby uchronić się przed zamieszaniem związanym z licencjami – po przejęciu Vmware przez Broadcom – udało nam się podpisać, 5-letnią umowę z firmą Netia, która gwarantuje nam stałe warunki” – wyjaśnia szczegóły.

Komponent sieciowy

Rosnące wymagania biznesowe, które dotykają obecnie większości organizacji na rynku, wymuszają również inwestycje w skalowalne rozwiązania sieciowe. Modernizacja do szybkich komponentów sieciowych jest bowiem niezbędna do zwiększenia szybkości przesyłania danych i poprawy ogólnej wydajności sieci. Ten krok zapewnia, że infrastruktura IT może skutecznie obsługiwać zwiększony ruch i obciążenia danych. Jak to wygląda na przykładzie modernizacji Gemini?

„Jeśli chodzi o sieć to używamy rozwiązań Fortinet, a konkretnie Fortigate, które odpowiednio sklastrowane zapewniają nam odpowiednią łączność data center z Internetem, chmurami publicznymi oraz z głównymi lokalizacjami biurowymi, magazynowymi i siecią aptek” – tłumaczy Patryk Dolewa. „Do spięcia naszych głównych lokalizacji – biur i magazynów – używamy redundantnych MPLS dostarczanych przez Netię. Z kolei 320 aptek Gemini scaliliśmy w wewnętrzną sieć i migrujemy je na rozwiązanie Fortigate SD-WAN. Robimy to po to, aby zachować redundancję, czyli łącze stałe i łącze LTE. Poza tym poprawiamy bezpieczeństwo – przenosząc ruch sieciowy do wewnętrznej sieci korporacyjne. Jeśli chodzi natomiast o łączność między naszymi data center, a chmurami publicznymi to poszliśmy w redundantne łącza VPN sterowane usługą AWS Transit Gateway” – dodaje.

Edge Computing

Kolejnym krytycznym trendem dla organizacji dążących do zwiększenia wydajności operacyjnej stało się przetwarzanie brzegowe. Decentralizując przetwarzanie danych i przybliżając je do miejsca, w którym są one generowane, model edge computing znacznie zmniejsza opóźnienia – co jest istotnym czynnikiem m.in. dla aplikacji wymagających reakcji w czasie rzeczywistym. Branże, które w dużym stopniu polegają na natychmiastowym dostępie do danych – takie jak produkcja, finanse, handel detaliczny czy opieka zdrowotna – mogą ogromnie zyskać na wdrożeniu koncepcji przetwarzania brzegowego. Model ten wykorzystuje również firma Gemini.

„Jeśli chodzi o edge computing to stosujemy takie podejście w naszym obiekcie magazynowym, gdzie mamy infrastrukturę onsite – serwery wpięte w klastry w dwóch mikroserwerowniach zlokalizowanych na miejscu. Zarządzają one sterownikami i kontrolerami automatyki” – tłumaczy Patryk Dolewa.

Bezpieczeństwo

Jednym z najtrudniejszych wyzwań w infrastrukturze IT jest zapewnienie solidnego bezpieczeństwa. Wraz ze wzrostem wyrafinowania cyberzagrożeń organizacje są bardziej niż kiedykolwiek narażone na naruszenia danych, ransomware, ataki phishingowe i inne złośliwe działania. W miarę jak firmy coraz częściej korzystają z usług w chmurze i narzędzi do zdalnej współpracy, tradycyjne środki bezpieczeństwa okazują się niewystarczające.

Dla zapewnienia trwałego, długoterminowego bezpieczeństwa infrastruktury niezbędne staje się wprowadzenie strategii Zero Trust – nie ufaj nikomu i weryfikuj wszystko. Oczywiście przejście na architekturę Zero Trust nie jest pozbawione wyzwań. Jest to też złożony proces. Dlatego, aby ułatwić zmiany, warto rozpocząć, przykładowo, od wdrożenia uwierzytelniania dwuskładnikowego we wszystkich aplikacjach wewnętrznych, zanim rozszerzy swój zakres na segmenty sieci lub na dostawców chmury.

Ale zabezpieczanie firmowej serwerowni to nie tylko walka z cyberzagrożeniami. To kompleksowe podejście, które obejmuje zarówno ochronę cyfrową, jak i fizyczną zasobów IT. Warto więc pomyśleć o udoskonaleniu istniejących zabezpieczeń oraz wdrożeniu rozwiązań gwarantujących wysoką odporność, nieprzerwane działanie i dostępność rozwiązań IT. Od fizycznej ochrony dostępu (biometryczne systemy dostępu, monitoring wizyjny) i systemów przeciwpożarowych (np. systemy gaszenia gazem), poprzez klimatyzację i systemy chłodzenia (np. free cooling) oraz zasilenie awaryjne (np. agregaty prądotwórcze), po backupy i systemy odzyskiwania danych (regularne kopie zapasowe) czy szkolenia pracowników (procedury bezpieczeństwa).

„We wspomnianych już mikroserwerowniach, zlokalizowanych w obiekcie magazynowym, musieliśmy oczywiście zachować niezbędne standardy bezpieczeństwa. Zainstalowaliśmy więc m.in. redundantną klimatyzację czy gazową instalację gaśniczą” – mówi Patryk Dolewa.

Elastyczność infrastruktury IT

Zapewnienie możliwości swobodnego skalowania i gospodarowania zasobami to fundament każdej infrastruktury IT, która ma mierzyć się z obecnym dynamicznym rozwojem technologii, czy też radzić sobie z nadchodzącymi wyzwaniami lub kryzysami. Z tego powodu rozwiązania chmurowe stały się podstawą wielu projektów związanych z rozwojem czy wdrażaniem nowych aplikacji biznesowych. Mowa tu zarówno o infrastrukturze współdzielonej, a więc modelu publicznej chmury obliczeniowej, jak i dedykowanej dla konkretnej organizacji – prywatnej, działającej lokalnie lub w centrum danych wyspecjalizowanego operatora.

„Skalowalność i elastyczność to zdecydowanie najważniejsze kwestie, jeśli chodzi o infrastrukturę IT. W Gemini zapewniamy je stosując chmurę publiczną i prywatną, która ma pewne możliwości rozbudowy. Dla mnie model hybrydowy, czyli kombinacja chmur publicznych i chmury prywatnej jest na tę chwilę optymalny” – zapewnia Patryk Dolewa.

Technologie w chmurze wykorzystują konteneryzację, orkiestrację i architektury bezserwerowe, aby zmaksymalizować elastyczność i umożliwić szybkie skalowanie aplikacji. Ten paradygmat pozwala organizacjom budować niezawodne systemy, które mogą szybko dostosowywać się do zmieniających się wymagań rynku, jednocześnie optymalizując wykorzystanie zasobów.

„Od kilku lat odeszliśmy od zakupu fizycznego sprzętu serwerowego na rzecz prywatnej chmury. Koncentrujemy się na optymalizacji kosztów usług chmurowych, co pozwala nam na elastyczne dostosowywanie zasobów do bieżących potrzeb. W tym roku z sukcesem zredukowaliśmy koszty o 10%.  Z kolei najnowsze usługi, jak nasza platforma AI/ML – są całkowicie chmurowe, zakupujemy je jako w pełni hostowany SaaS co jest dla nas optymalne na ten moment” – podsumowuje Adam Lach, CIO w CTL Loistics.

Jaka jest dziś rola serwerowni i centrów danych?

Możliwość szybkiego, wydajnego dostępu do danych i ich przetwarzania przez organizacje ma kluczowe znaczenie dla rozwoju gospodarki cyfrowej. Centra danych odgrywają istotną rolę w tym procesie.

Dekadę temu termin „centrum danych” miał prostszą definicję niż dzisiaj. Przez lata ich rozwój bowiem ewoluował. Od danych zgromadzonym w lokalnych serwerowniach, poprzez w dużej mierze migrację do chmury publicznej, aż po częściowy powrót do firmowych serwerowni czy profesjonalnych centrów danych. Dziś centra danych nie są już postrzegane jako pomieszczenia z szafami pełnymi sprzętu. Dziś to dom dla najważniejszych aktywów organizacji, a także kluczowy węzeł w przepływie wciąż rosnącej, ogromnej ilości informacji, spotęgowanej dodatkowo przez rozwój sztucznej inteligencji.

Współczesne centrum danych przechowuje dużą ilość danych i zapewnia ich wysoką dostępność, także na wypadek awarii. Równolegle centra danych zapewniają też infrastrukturę niezbędną do sprawnego przetwarzania firmowych – a często też prywatnych – danych, obsługując coraz większą liczbę nowoczesnych aplikacji i usług. Dzięki mocy obliczeniowej centrów danych, organizacje mogą wykonywać złożone analizy w czasie rzeczywistym i obsługiwać krytyczne operacje zachowując przy tym efektywność i elastyczność w sposób często nieosiągalny z poziomu lokalnej serwerowni.

Kolejna różnica między lokalnymi firmowymi serwerowniami, a profesjonalnymi data center to bezpieczeństwo. Wyspecjalizowane obiekty posiadają zwykle rozbudowane zabezpieczenia łączące- zapory sieciowe, systemy wykrywania włamań, szyfrowanie danych i kontrole dostępu fizycznego. Co więcej, są najczęściej certyfikowane pod kątem określonych norm i standardów branżowych. Wreszcie, cechy te mają kluczowe znaczenie dla możliwości przygotowania firmowej infrastruktury na przyszłe potrzeby biznesowe.

Tagi

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *