CIOPolecane tematy
Poznaj skuteczną strategię modernizacji infrastruktury w oparciu o rozwiązania HP Promocja
Promocja
Oczekiwania biznesowe wymagające szybkiego dostępu przetworzonych w odpowiedni sposób danych z roku na rok przybierają na sile i skali, nie pozostając bez wpływu na kierunki rozwoju infrastruktury IT. W jaki sposób zaplanować rozwój infrastruktury tak, aby zapewniała ona wystarczające zasoby nie tylko dziś, ale też w przyszłości?
Maciej Rak, Scale-up Blades & Servers Category Manager w HP Enterprise
Gwałtownemu wzrostowi roli danych w procesach podejmowania decyzji biznesowych towarzyszy wysoka dynamika procesów biznesowych, a także konkurencyjność i zmienność sytuacji rynkowej, które powodują, że potrzeby w obszarze IT cechują się dużą zmiennością. Tendencje są tu zwykle silnie rosnące – przy nieprzewidywalnej dynamice i rodzaju oczekiwań. W efekcie wykorzystywane w firmie rozwiązania informatyczne muszą charakteryzować się dziś dużą elastycznością w zakresie dostosowywania do potrzeb organizacji. Z drugiej strony niedopuszczalna jest sytuacja, kiedy braki na poziomie infrastruktury IT stanowią ograniczenie dla biznesu. Na to nakłada się także potrzeba optymalizacja kosztów utrzymania i posiadania infrastruktury informatycznej. Jak podejść do modernizacji infrastruktury w takich warunkach?
Żywy organizm
Po pierwsze należy spojrzeć na infrastrukturę jak na złożony system. “Infrastruktura IT to zbiór elementów i relacji między nimi. Im więcej elementów, tym większa złożoność zarządzania infrastrukturą. Ważne jest więc, aby infrastruktura była budowana z myślą o pewnych cechach ułatwiających zarządzanie złożonym i silnie powiązanym środowiskiem, a także umożliwiającymi zapewnienie wysokiej dynamiki zmian przy minimalnym koszcie” – mówi Maciej Rak, Scale-up Blades & Servers Category Manager w HP Enterprise. Według niego łatwość zarządzania infrastrukturą oraz prowadzenia migracji obciążeń zależy m.in. od skali wprowadzenia modularności rozwiązań, unifikacji warstwy infrastruktury składającej się na całe środowisko, a także ujednolicenia warstwy zarządzania infrastrukturą.
W praktyce oznacza to, że niezbędna staje się możliwość łatwego, szybkiego – i nie nastręczającego nadmiernych kosztów – redefiniowania funkcjonalności poszczególnych zasobów IT na poziomie sieci, pamięci masowych i serwerów. “Aby dynamiczne migrowanie obciążeń było realne potrzebna staje się infrastruktura określana mianem konwergentnej, czyli takiej, w której wszystkie elementy – począwszy od serwerów, przez pamięci masowe, po połączenia sieciowe – tworzą spójny organizm funkcjonujący jako całość i zarządzany w sposób jednolity. Nie chodzi jednak o ujednolicenie całego środowiska IT” – dodaje Maciej Rak. Równie istotne staje się też bezpieczeństwo rozbudowy infrastruktury rozumiane jako gwarancja stabilności jej działania oraz dostępności. “Dostępność rozwiązań biznesowych jest dziś kluczowym parametrem uwzględnianym we wszystkich kalkulacjach i rozważaniach na temat inwestycji w IT. Nikt nie może sobie przecież pozwolić na awarię systemu pomimo ingerencji w żywy organizm, czyli modyfikacji środowiska aplikacyjnego” – mówi Maciej Rak.
Scenariusz migracji
Decydując się na rozbudowę posiadanej infrastruktury organizacje mogą zdecydować się na wymianę całości posiadanych rozwiązań lub fragmentaryczne, precyzyjnie ukierunkowane zmiany. O ile pierwszy scenariusz należy raczej do rzadkości przez wzgląd na duże obciążenia finansowe, tak drugi – wymaga posiadania odpowiednio konwergentnej infrastruktury, która pozwoli na wymianę i skalowanie poszczególnych komponentów przy zachowaniu ciągłości działania oraz dostępności świadczonych usług biznesowych. Każda organizacja powinna wybrać własny scenariusz rozwoju infrastruktury, dopasowany do prognozowanej dynamiki biznesowej w dłuższej perspektywie czasu. “Współczesne projekty zakładają raczej poszukiwanie złotego środka pomiędzy tymi dwoma podejściami. Firma HP projektuje własne rozwiązania uwzględniając konieczność zapewnienia klientom rozwiązań odpowiadającym nie tylko na ich aktualne potrzeby, ale także gwarantujące bezpieczeństwo biznesu w dłuższej perspektywie. Dowodem na to jest fakt, że rozwiązania blade wprowadzone do oferty HP w 2006 będą dostępne przynajmniej do 2018 roku” – podkreśla Maciej Rak.
W tym miejscu warto wyróżnić dwie odmienne, ale potencjalnie komplementarne, strategie rozbudowy infrastruktury – scale-out oraz scale-up. Pierwsza z nich, jak tłumaczy Maciej Rak, polega na dokładaniu do posiadanej infrastruktury kolejnych urządzeń – przykładowo serwerów blade. Druga – podejście typu scale-up – opiera się na dodawaniu kolejnych elementów w ramach konkretnego serwera. “W praktyce jest to jedynie definicja teoretyczna. Mianem scale-up faktycznie określane są takie rozwiązania techniczne, na przykład serwery, które dysponują rozszerzonymi zasobami względem rozwiązań klasycznych” – mówi Maciej Rak. Podejście to zakłada więc zakup pojedynczego serwera posiadającego parametry odpowiednio wysokie, aby sprostać obecnym i potencjalnym potrzebom, a także pozwoli na skonsolidowanie obciążeń obsługiwanych dotąd przez kilka maszyn. W tym ujęciu serwery scale-up oznaczać będą zatem systemy wyposażone w większą od klasycznych maszyn sumaryczną liczbę rdzeni przetwarzających dane, szybsze kanały komunikacji, czy większą ilość pamięci operacyjnej – i sprawdzą się w ogólnych, ale też w wyspecjalizowanych zastosowaniach, przykładowo w obsłudze rozbudowanych aplikacji trudno skalowalnych poprzez dokładanie kolejnych serwerów, aplikacji.
Szczegóły są dostępne na stronie: www.hp.com/go/scaleup
Wartość dodana scale-up
Przykładem optymalnego zastosowania rozwiązań typu scale-up jest obsługa systemów przetwarzania danych wprost w pamięci operacyjnej. Specyfika technologii in-memory processing nakłada na infrastrukturę serwerową wysokie wymagania względem ilości oraz szybkości dostępnej pamięci operacyjnej. “W przypadku bardziej rozbudowanych środowisk bazodanowych korzystających z technologii in-memory processing nie da się jej efektywnie wykorzystać na klasycznych serwerach dysponujących maksymalnie 1 TB pamięci operacyjnej. Potrzebne stają się rozwiązania zapewniające łatwy dostęp do większej ilości zasobów. Przykładem jest serwer HP ProLiant DL580, który – w 8. i 9. generacji – zapewnia obsługę aż 6 TB danych” – mówi Maciej Rak.
Serwer HP ProLiant DL580 Gen9
Podejście scale-up oznacza, że jedno fizyczne urządzenie jest w stanie realizować więcej zadań. Jednocześnie takie podejście przyczynia się do uproszczenia infrastruktury IT – jedna maszyna może z powodzeniem zastąpić kilka mniejszych, co skutkuje zmniejszeniem kosztów powierzchni, obsługi połączeń, energii elektrycznej i chłodzenia, a wreszcie – zarządzania. “W przypadku serwerów skalowalnych pojawia się jeszcze jeden ważny aspekt. Jeśli spojrzeć na kosztorys typowej instalacji, to okazuje się, że sprzęt nie stanowi dziś głównego czynnika kosztowego. Najbardziej kosztowne okazują się licencje. Tymczasem serwery skalowalne, w zależności od schematu licencjonowania pozwalają radykalnie oszczędzić na kosztach licencji, szczególnie wtedy, gdy są one uzależnione od ilości gniazd procesora” – twierdzi Maciej Rak.
Nowa oferta HP
Ostatnie miesiące przyniosły istotne zmiany w ofercie serwerów firmy HP. Zmniejszyła się m.in. liczba linii rozwiązań serwerowych HP. “Oferta została znacznie uproszczona, jednak zmianę tą należy rozumieć jako zastąpienie serwerów o różnorodnych cechach na systemy bardziej uniwersalne i łączące funkcjonalności dostępnych wcześniej rodzin serwerowych. Z pełnym przekonaniem mogę powiedzieć, że dostępne dziś w ofercie serwery HP DL560, DL580 oraz BL660c najnowszej generacji pokrywają praktycznie wszystkie potrzeby w zakresie zasobów, czy obsługi typowych aplikacji” – mówi Maciej Rak. Według niego poszczególne serwery cechują m.in. ogromne możliwości w zakresie konfiguracji oraz skalowalności.
Co ważne, cechą łączącą rodziny serwerów HP DL560, DL580 i BL660c jest fakt, że mogą one być wyposażone w maksymalnie 4 fizyczne procesory firmy Intel. Odmienne są jednak dostępne dla poszczególnych maszyn architektury układów. I tak, wykorzystujący układy Intel Xeon E7 v3 serwer HP ProLiant DL580 pełni rolę platformy dla rozwiązań typu mission-critical, które wymagają szczególnej niezawodności i ciągłości działania, a także optymalizacji dla wymagających środowisk przetwarzania. „Serwer HP ProLiant DL580 w 9. generacji doskonale nadaje się do obsługi wymagających baz danych, w tym baz in-memory, aplikacji OLTP, systemów wsparcia decyzji, rozwiązań wymagających intensywnego dostępu do pamięci, czy szybkich kanałów komunikacji z systemami zewnętrznymi – jak systemy ERP, czy CRM. Serwer DL580 sprawdzi się też tam, gdzie ceniona jest niezawodność, dostępność i łatwa serwisowalność” – podkreśla Maciej Rak. Warto zaznaczyć, że odpowiedzią HP na potrzeby związane z najbardziej zaawansowanymi zastosowania mission-critical jest wysoce skalowalny serwer HP Superdome X.
Z kolei głównym przeznaczeniem serwerów HP DL560 są zastosowania konsolidacyjne oraz te, wymagające architektury wieloprocesorowej. Tym co wyróżnia serwery tej linii jest wysoka gęstość upakowania zasobów na jednostkę powierzchni. „Serwer HP DL560 wygląda niemal identycznie, jak maszyna DL380, najbardziej popularny serwer HP tego typu na rynku, ale dysponuje co najmniej podwojonymi zasobami. Charakteryzuje się też korzystnym współczynnikiem wydajności do ceny” – dodaje Maciej Rak. Zbliżony cechy mają także serwery rodziny HP ProLiant BL660c – w tym przypadku jest to rozwiązanie blade. Wszystkie wspomniane maszyny są w pełni zgodne z oprogramowaniem wspierającym zarządzanie infrastrukturą HP OnewView.