MENU

W pogoni za elastyczną infrastrukturą IT w centrum danych

5 grudnia 2017Artykuł z magazynu ITwiz, CIO, Polecane tematy

Hiperkonwergencja to stosunkowo nowy trend. Przynosi on takie korzyści, jak elastyczność i uproszczenie zarządzania infrastrukturą w centrum danych. Warto jednak pamiętać, że hiperkonwergencja nie jest odpowiedzią na wszystkie problemy, z jakimi boryka się IT.

Technologie korporacyjne podlegają istotnym zmianom za każdym razem, kiedy pojawiają się nowe modele, mające sprostać zmieniającym się potrzebom biznesowym. Hiperkonwergentna infrastruktura jeszcze 5–6 lat temu istniała jedynie jako koncepcja. Obecnie jest to jedna z najszybciej rozwijających się metod wdrażania środowiska IT w centrum danych. Za szybkim wzrostem jej popularności stoi konieczność dostosowania się działów IT do nowej roli w biznesie i sprostaniu nowym oczekiwaniom.

Analitycy Gartnera przewidują, że rynek tych rozwiązań wzrośnie do 5 mld USD w 2019 r. Będzie to największy segment w grupie preintegrowanych produktów do budowy infrastruktury IT w centrum danych. W tej grupie znajdują się jeszcze takie segmenty, jak architektury referencyjne czy infrastruktura zintegrowana. Mimo szybko rosnącej popularności i sporej liczby produktów dostępnych na rynku ta kategoria potrzebuje jeszcze czasu, aby dojrzeć.

Analitycy Gartnera przewidują, że rynek rozwiązań hiperkonwergentnych wzrośnie do 5 mld USD w 2019 r. Będzie to największy segment w grupie preintegrowanych produktów do budowy infrastruktury IT w centrum danych. W tej grupie znajdują się jeszcze takie segmenty, jak architektury referencyjne czy infrastruktura zintegrowana.

Hiperkonwergentna, czyli elastyczna i łatwa w zarządzaniu

Ponieważ koncepcja jest stosunkowo nowa, warto przybliżyć, co kryje się pod pojęciem „hiperkonwergentna infrastruktura” i czym różni się ona od infrastruktury konwergentnej. Na najwyższym poziomie hiperkonwergencja to sposób na zbudowanie infrastruktury, która jest skalowalna i ekonomiczna jak chmura, a jednocześnie nie wymaga kompromisów w obszarze wydajności, niezawodności czy dostępności.
Hiperkonwergencja to kolejny krok w pogoni za infrastrukturą IT, która jest elastyczna i łatwa w zarządzaniu. Początkowo rozwiązania te składały się ze zintegrowanych systemów i sieci. Najczęściej były to sieci SAN i serwery blade. Początkowe zaś nakłady na takie rozwiązania były bardzo wysokie. Podobny cel ma wdrażanie infrastruktury konwergentnej, ale ta koncepcja zakłada integrację w jednym urządzeniu mocy obliczeniowej, pamięci masowej oraz sieci, wraz z nałożoną na nie warstwą zarządzania.

Hiperkonwergentna infrastruktura służy temu samemu, ale realizuje cele z większym wykorzystaniem oprogramowania – rozwiązań typu Software Defined – i kładzie mniejszy nacisk na sieć. Koncentruje się natomiast na kontroli danych i zarządzaniu. Hiperkonwergentna infrastruktura to typowy przykład realizacji koncepcji SDDC (Software Defined Data Center), która charakteryzuje się ścisłą integracją pomiędzy zasobami obliczeniowymi, pamięciami masowymi, siecią i wirtualizacją.

Koncepcja infrastruktury hiperkonwergentnej zakłada integrację w jednym urządzeniu mocy obliczeniowej, pamięci masowej oraz sieci, wraz z nałożoną na nie warstwą zarządzania. Hiperkonwergentna infrastruktura służy temu samemu, ale realizuje cele z większym wykorzystaniem oprogramowania – rozwiązań typu Software Defined – i kładzie mniejszy nacisk na sieć. Koncentruje się natomiast na kontroli danych i zarządzaniu. Hiperkonwergentna infrastruktura to typowy przykład realizacji koncepcji Software Defined Data Center.

Przyczyny popularności systemów hiperkonwergentnych

Systemy hiperkonwergentne można budować z wykorzystaniem standardowych, niedrogich serwerów x86. Niektórzy producenci, szczególni ci dopiero wchodzący na rynek, zamawiają sprzęt u takich dostawców, jak Supermicro, Quanta czy Dell, a wartość dodaną stanowi oprogramowanie. Z czasem pojawiły się firmy, które dostarczają rozwiązania w całości programowe, oraz producenci hybrydowi, którzy sprzedają głównie oprogramowanie. Jeśli jednak klient tego oczekuje, mogą dostarczyć również sprzęt. Efektem tej ewolucji rynku jest dostępność hiperkonwergentnej infrastruktury w postaci gotowych rozwiązań sprzętowo-programowych (tzw. appliance), architektury referencyjnej lub oprogramowania, które jest elastyczne w kontekście platformy, na której może działać.

Lista korzyści, które płyną z hiperkonwergencji, jest całkiem długa:
• Elastyczność – hiperkonwergencja ułatwia skalowanie wszerz i wzwyż, w zależności od wymagań biznesu.
• Wirtualne maszyny w centrum uwagi – skoncentrowanie się na maszynach wirtualnych lub obciążeniach jako podstawy firmowego IT, wraz ze wsparciem wszystkich mechanizmów wokół pojedynczych maszyn wirtualnych.
• Ochrona danych – jednym z podstawowych wymagań jest możliwość przywrócenia danych w przypadku ich utraty lub uszkodzenia. Hiperkonwergentna infrastruktura znacznie ułatwia spełnienie tego wymagania.
• Mobilność maszyn wirtualnych – hiperkonwergencja znacznie zwiększa możliwość przenoszenia aplikacji.
• Wysoka dostępność – hiperkonwergencja wyraźnie zwiększa poziom dostępności w porównaniu ze starszymi systemami.
• Efektywność danych – hiperkonwergentna infrastruktura redukuje wymagania dotyczące pamięci masowych, przepustowości i liczby IOPS.
• Optymalizacja kosztów – hiperkonwergentna infrastruktura umożliwia ograniczenie wydatków na IT.

Aby zrozumieć, dlaczego hiperkonwergencja w krótkim czasie zyskała popularność, trzeba przyjrzeć się innym zachodzącym trendom. Mamy do czynienia z dużym naciskiem na to, aby działy IT były w stanie błyskawicznie dostarczać potrzebne zasoby. Coraz więcej aplikacji jest dobrze dostosowanych do skalowalnych systemów budowanych z użyciem niedrogich, standardowych komponentów. Rozwiązania SDS (Software Defined Storage) przynoszą znaczny wzrost efektywności. Bardzo szybko zwiększa się też ilość przetwarzanych i przechowywanych danych.

Coraz więcej firm traktuje priorytetowo tworzenie produktów i usług bazujących na oprogramowaniu, dlatego są one zainteresowane wdrażaniem elastycznych metodologii tworzenia kodu. To z kolei wymaga dużej elastyczności ze strony IT. Innymi słowy, firmy chcą tworzyć i wdrażać coraz więcej oprogramowania, więc IT musi być gotowe na to, aby szybko uruchamiać nowe aplikacje.

Zastosowania nowego typu infrastruktury w firmach

Mimo rosnącej popularności, na razie firmy jeszcze dość rzadko korzystają z hiperkonwergentnej infrastruktury w celu zwiększenia elastyczności. Obecnie głównym powodem jest przede wszystkim możliwość wdrażania aplikacji ogólnego przeznaczenia, infrastruktury wirtualnych desktopów, analityki (np. klastrów Hadoop) oraz aplikacji wykorzystywanych w oddziałach (zdalnych lokalizacjach).

Niewiele organizacji używa tej infrastruktury do uruchamiania aplikacji o krytycznym znaczeniu, wirtualizacji serwerów czy systemów pamięci masowych o wysokiej wydajności. Jeszcze rzadziej hiperkonwergentna infrastruktura jest podstawą budowy chmury prywatnej lub hybrydowej, które wspierają błyskawiczny cykl tworzenia oprogramowania. Analitycy Gartnera spodziewają się jednak, że wachlarz zastosowań infrastruktury hiperkonwergentnej będzie się zmieniał wraz z rozwojem rynku.

Różne hiperkonwergentne konstrukcje

Konwergencja występuje w wielu formach. W podstawowej jest to połączenie systemów pamięci masowej, mocy obliczeniowej oraz przełączników sieciowych w jedno przetestowane, zweryfikowane rozwiązanie. Jednakże taki poziom konwergencji jedynie upraszcza procesy zakupowe i cykle wymiany. Nie sprawdza się w kontekście wyzwań operacyjnych, które pojawiły się wraz z wprowadzeniem wirtualizacji do centrów danych. Wciąż trzeba się zająć m.in. tworzeniem LUN-ów, zakupem mechanizmów do optymalizacji WAN i budową systemu backupowego.

Hiperkonwergencja to zasadniczo inne spojrzenie na wszystkie usługi, które składają się na centrum danych. Wszystkie elementy infrastruktury hiperkonwergentnej wspierają maszyny wirtualne, które są traktowane jako podstawowy element konstrukcyjny centrum danych. Efekty takiego podejścia to m.in. obniżenie kosztów kapitałowych dzięki zmniejszeniu nakładów początkowych na infrastrukturę. Niższe są również koszty operacyjne. Skraca się też czas reagowania na zmiany potrzeb biznesowych. Od strony technicznej zaś inżynierowie zajmujący się infrastrukturą IT, mający szeroką wiedzę o sprzęcie i potrzebach biznesowych, mogą łatwo przygotować się do zarządzania infrastrukturą hiperkonwergentną. Firmy nie muszą zarządzać oddzielnymi zasobami w centrum danych, dzięki czemu nie są potrzebni pracownicy do obsługi poszczególnych aspektów centrum danych.

To nie jest lekarstwo na wszystkie problemy

Trzeba pamiętać, że hiperkonwergencja jest tylko jednym z typów infrastruktury i nie jest uniwersalnym lekarstwem na wszystkie problemy działów IT. Producenci wciąż muszą wykazać jakość swoich rozwiązań i pokazać ich przewagi nad sieciami SAN i serwerami blade. Hiperkonwergentna infrastruktura cechuje się prostotą zarządzania i elastycznością. Jednak te słowa dla różnych ludzi mają różne znaczenie. Myśląc o hiperkonwergencji, Gartner doradza, aby dokładnie uświadomić sobie, co te słowa oznaczają dla użytkownika i dla producenta.

KOMENTARZ EKSPERTA

JAK ZAPEWNIĆ PRZEWIDYWALNĄ WYDAJNOŚĆ?
Wyzwaniem każdego przedsiębiorstwa chcącego realizować założenia cyfrowej transformacji i wykorzystania potencjału danych przy ograniczonym czasie i budżecie jest budowa elastycznej, łatwej w zarządzaniu i efektywnej finansowo infrastruktury IT. Nowoczesne data center musi gwarantować odpowiednie działanie kluczowych aplikacji bez nadwerężania budżetu, automatyzując wszystkie rutynowe zadania, eliminując ryzyko błędów i jednocześnie uwalniając zasoby niezbędne do zadań o wyższej wartości dla przedsiębiorstwa. Odpowiedzią na te wyzwania jest infrastruktura hiperkonwergentna.

Jednym z głównych parametrów jest zapewnienie przewidywalnej wydajności, szczególnie w obliczu mnożących się aplikacji i obciążeń, z których wiele z nich może być niezwykle zasobochłonnych i nieprzewidywalnych. Za każdym razem, gdy wiele aplikacji współdzieli tę samą infrastrukturę, istnieje ryzyko, że jedna z nich może zakłócać działanie innej.

Ustawienia polityki jakości systemu NetApp HCI eliminują problem spornych zasobów i zmienną wydajność aplikacji. Każdy wolumen w systemie otrzymuje własne ustawienia, zapewniając przewidywalną wydajność dla każdej aplikacji bez konieczności nadmiarowej mocy obliczeniowej z jednej strony oraz ryzyka niedoszacowania zapotrzebowania na zasoby z drugiej strony, co jest typowe dla dzisiejszej infrastruktury hiperkonwergentnej.

Bartłomiej Szwaj, NetApp

Artykuł ukazał się na łamach Magazynu ITwiz nr. 10/2017. Szczegóły dotyczące wydania wraz z formularzem dla osób zainteresowanych zakupem publikacji dostępne są na stronie: itwiz.pl/kiosk

Podobne tematy:

Dodaj komentarz

Twój adres email nie zostanie opublikowany. Pola, których wypełnienie jest wymagane, są oznaczone symbolem *

« »