InfrastrukturaCIORynek

HPE: Klienci oczekują od rozwiązań on-premise doświadczeń znanych z publicznej chmury

Z Mattem Hainesem, wiceprezesem i dyrektorem generalnym działu Compute Cloud Services w Hewlett Packard Enterprise, rozmawiamy o zmieniających się oczekiwaniach rynku względem rozwiązań serwerowych, potrzebach biznesowych wpływających na wzrost powszechności wykorzystania koncepcji przetwarzania Edge Computing i związanych z tym wyzwaniach, zmieniającej się roli tradycyjnych centrów danych, a także priorytetach w zakresie rozwoju serwerów i narzędzi do zarządzania infrastrukturą IT.

HPE: Klienci oczekują od rozwiązań on-premise doświadczeń znanych z publicznej chmury

Niedawno na rynek trafiły serwery HPE ProLiant 11. generacji. Jakie nowe możliwości zapewniają?

HPE koncentruje się obecnie na zapewnieniu jak najwyższej wydajności obsługi zróżnicowanych obciążeń. W ten sposób wprost odpowiadamy na potrzeby klientów. Kluczowym dla nas obszarem jest także bezpieczeństwo. Rozwijamy swoje rozwiązania tak, aby zapewniały najlepsze możliwe zabezpieczenia w każdej warstwie architektury serwerowej. Te dwa obszary podsumowują możliwości rodziny HPE ProLiant Gen11.

Równocześnie zdajemy sobie sprawę, że niemal wszyscy klienci wykorzystują dziś serwery HPE w ramach jakiejś formy środowisk hybrydowych. W praktyce oznacza to, że niektóre obciążenia nasi klienci realizują w ramach posiadanej infrastruktury, a inne w chmurze publicznej, nierzadko przenosząc je między tymi środowiskami.
Jednocześnie – ze względu na zmieniającą się naturę danych oraz sposób ich pozyskiwania, gromadzenia, przechowywania, a także przetwarzania – coraz częściej zapadają decyzje o przeniesieniu większej ilości zasobów, przede wszystkim mocy obliczeniowej, jak najbliżej źródeł danych, a więc tzw. brzegu infrastruktury IT w ramach środowisk Edge Computing. W efekcie zmieniają się potrzeby dotyczące architektury oraz funkcjonowania środowisk IT.

Wiele organizacji poszukuje dziś rozwiązań zdolnych do sprawnego działania poza typowymi centrami danych. Mam tu na myśli np. serwery umieszczone w zakładach produkcyjnych, centrach rozwojowych, sklepach albo… hotelach.

Zmieniające się zastosowania oraz specyfika wykorzystania naszych serwerów oznaczają zarówno nowe potrzeby w obszarze samej technologii, jak i narzędzi do sprawnego zarządzania rozproszonymi zasobami serwerowymi. To prowadzi nas do możliwości serwerów HPE ProLiant Gen11 wspieranych naszymi rozwiązaniami do zarządzania zasobami serwerowymi.

Co rozumieją Państwo pod hasłem „intuicyjnej chmury”?

To pewnego rodzaju podsumowanie oczekiwań klientów, którzy korzystają z różnych środowisk publicznej chmury obliczeniowej i aplikacji oferowanych w formie Software-as-a-Service. Nabyli oni pewnych przyzwyczajeń, które teraz przekładają się na oczekiwania względem infrastruktury on-premise.

Dlatego, uzupełniając nasze serwery rozwiązaniami rozwijanymi w myśl intuicyjnej chmury, zapewniamy funkcjonalności, dzięki którym klienci mogą oczekiwać doświadczeń analogicznych do tych oferowanych przez największych dostawców publicznej chmury, tzw. hyperskalerów. Stawiamy na łatwość i prostotę obsługi rozwiązań serwerowych, a także przejrzystość architektury i szybkość działania.

W aspekcie użytkowym, podobne do chmury możliwości skalowania i elastycznego wykorzystania zasobów zapewnia platforma HPE GreenLake.

Dokładnie! Kluczową jej cechą jest możliwość dostarczenia zasobów serwerowych w modelu „na żądanie”, ale w oparciu o w pełni lokalną infrastrukturę, w formule znanej ze środowisk publicznej chmury obliczeniowej. HPE GreenLake pozwala też na zapewnienie spójnego, centralnego punktu zarządzania całym środowiskiem serwerowym. Dzięki temu, w ramach jednego środowiska administracyjnego, możliwe jest kontrolowanie informacji o wszystkich rozwiązaniach i warstwach sieci, przetwarzania i pamięci masowych.

Nasze rozwiązanie stanowi ekwiwalent dla kokpitów administracyjnych oferowanych przez największych dostawców chmury publicznej – z tą różnicą, że równie łatwo pozwala zarządzać i w elastyczny sposób dysponować zasobami, które są dostarczane za pomocą serwerów działających w lokalizacji wskazanej lub kontrolowanej przez klientów.

Strategia HPE, obok zapewnienia doświadczeń chmurowych w ramach lokalnej infrastruktury, zakłada też wsparcie dla nowych potrzeb rynku w zakresie przetwarzania brzegowego. Model Edge Computing jest jednak obecny od lat. Co zmieniło się dziś?

Dziś mamy o wiele większe możliwości generowania, gromadzenia, przechowywania oraz przetwarzania danych niż w przeszłości. Z drugiej strony, zdecydowanie większe wolumeny danych są obecnie gromadzone na brzegu infrastruktury w sposób niewymagający ich przesyłania w ramach infrastruktury centralnej.

Naturalna staje się potrzeba zapewnienia możliwości sprawnego przetwarzania dużych ilości danych blisko ich źródła. Dzięki temu możliwe staje się wyeliminowanie potrzeby coraz trudniejszego operacyjnie, kosztownego i czasochłonnego przesyłania zbiorów surowych danych do data center. Model Edge Computing rozwija się w odpowiedzi na potrzebę zarządzania danymi, wstępnego ich przetwarzania lub agregowania, bądź wyciągania prostych wniosków jak najszybciej, a więc blisko miejsca, z którego zostały pozyskane.

Wiele lat temu również korzystaliśmy z agregatów danych…

To prawda, podobnie jak wtedy problemem okazywała się ilość danych. Wówczas jednak dane były przetwarzane i agregowane centralnie. Dziś mamy do czynienia z zupełnie innymi wolumenami. Różnice są ogromne. W miarę jak rośnie liczba urządzeń generujących dane oraz sama ilość danych, coraz trudniejsze i mniej efektywne stają się próby centralnego przetwarzania wszystkich dostępnych zbiorów danych. Z drugiej strony, nie wszystkie dane detaliczne muszą być przetwarzane w sposób centralny.

Na tym jednak nie koniec. Na rozwój przetwarzania brzegowego wpływają też zmiany w architekturze oraz sposobie tworzenia nowych aplikacji. Proszę spojrzeć jak dalece różne są dzisiejsze aplikacje i procesy ich rozwoju od tych powszechnych jeszcze kilka lat temu. Dziś coraz bardziej popularne stają się aplikacje natywne chmurowo, a także systemy modułowe oparte na konteneryzacji. Nie dziwi więc, że praktycznie wszystkie organizacje zajmujące się rozwojem oprogramowania oczekują od infrastruktury lokalnej wsparcia dla takiego samego modelu wdrażania środowisk kontenerowych, jak w cloud computing.

Posłużę się przykładem hotelu, o którym wspomniałem wcześniej. W przeszłości wszystkie hotele tej sieci były podłączone do głównego data center i lokalnie posiadały jedynie minimalne zasoby sprzętowe. W pewnym momencie – wraz z rozwojem oprogramowania wykorzystywanego w branży hotelarskiej – takie podejście przestało wystarczać.

Proszę zwrócić uwagę, że dzisiaj w dużych sieciach hotelowych wykorzystywany jest szereg rozwiązań aplikacyjnych, które nadzorują działanie systemów IT w każdym pokoju – od oświetlenia i klimatyzacji, przez dostęp do sieci bezprzewodowej, po kontrolę dostępu. Bardzo często ich sercem są aplikacje oparte na architekturze kontenerowej, co oznacza konieczność zapewnienia wydajnej obsługi rozwiązań kontenerowych na miejscu.

Uruchamianie takich systemów w sposób w pełni centralny nie znajduje uzasadnienia. Znów, jest to konieczność biznesowa – potrzeba, która spycha procesy związane z obsługą obciążeń aplikacyjnych i przetwarzaniem danych bezpośrednio do brzegu sieci.

Jakie branże mają podobne potrzeby wpływające na zwiększenie skali wykorzystania infrastruktury brzegowej?

Praktycznie wszystkie. Każda organizacja, która działa w modelu rozproszonym geograficznie, będzie potrzebowała rozwiązań brzegowych, które zapewnią moc obliczeniową na odpowiednim poziomie, a jednocześnie będą mogły być zarządzane w zautomatyzowany, scentralizowany i spójny sposób. Oczywiście większość dużych organizacji nadal będzie posiadała centralne ośrodki przetwarzania. Obecne zmiany biznesowe wymagają jednak wdrożenia modelu Edge Computing jako uzupełnienia dla środowisk centralnych.

Istnieją też rozproszone organizacje, dla których centralna infrastruktura przestała się sprawdzać z powodu dużej liczby interakcji lub transakcji, które muszą być obsługiwane w czasie rzeczywistym. Mówiąc o branżach, które w pierwszej kolejności zdecydują się na wdrożenie modelu Edge Computing, z pewnością trzeba wspomnieć o handlu detalicznym, instytucjach bankowych, a także innych rozproszonych geograficznie organizacjach, które korzystają z możliwości nowych technologii w oddziałach i placówkach zdalnych.

Jaka zatem będzie rola istniejących ośrodków data center?

W zdecydowanej większości organizacji potrzebne będą zasoby pozwalające na konsolidację i centralizację danych, tak aby zapewnić całościowy, holistyczny widok organizacji. Podobnie, nadal potrzebne będą centralne systemy i aplikacje wspierające procesy biznesowe obejmujące wiele działów lub całą firmę.

Z naszych analiz wynika jednak, że większość organizacji będzie modernizować architekturę środowisk IT w kierunku połączenia infrastruktury centralnej z zasobami brzegowymi. Natomiast wyzwaniem, któremu klienci muszą sprostać przy wsparciu dostawców, takich jak HPE, jest rosnąca złożoność środowisk IT. Wyzwaniem staje się monitorowanie i zarządzanie tysiącami maszyn, które nie są utrzymywane w skonsolidowanym, kontrolowanym środowisku data center, ale rozproszone po wielu – często bardzo odległych geograficznie – lokalizacjach. Przykładowo, duże firmy handlowe dysponują tysiącami placówek, a więc potencjalnie także serwerów rozproszonych po tych lokalizacjach.

Niezbędne stają się narzędzia dostosowane do takich potrzeb i zbudowane w taki sposób, aby nadzorować i koordynować działanie licznej grupy maszyn, automatyzować działania administracyjne, zdalnie kontrolować stan serwerów, wykonywać operacje administracyjne i dbać o spójność całego środowiska. Kluczowe znaczenie ma tutaj unifikacja infrastruktury IT, aby zapewnić wgląd w działanie środowiska serwerowego niezależnie od lokalizacji. Z naszej perspektywy ważne jest udostępnienie klientom rozwiązań, które zapewnią całościową automatyzację operacji związanych z utrzymaniem rozproszonych środowisk brzegowych i funkcje potrzebne do sprawnego działania tak złożonego środowiska.

Zdajemy sobie sprawę, że klienci oczekują od dostawców technologii on-premise doświadczeń, łatwości i intuicyjności obsługi, a także elastyczności i automatyzacji analogicznych do rozwiązań znanych z publicznych środowisk chmury obliczeniowej. Zapewnieniu stosownych doświadczeń służy cały zestaw rozwiązań, które oferujemy w ramach platformy HPE GreenLake. U ich podstawy nadal znajduje się jednak konkretny serwer, wspierany przez zespół HPE, ale należący do konkretnego klienta.

Jaką rolę pełni usługa HPE GreenLake Compute Ops Management?

Rozwiązanie HPE GreenLake Compute Ops Management zapewnia pomost pomiędzy klasycznymi rozwiązaniami zarządzania zasobami serwerowymi, scentralizowanymi w data center oraz wysoce rozproszoną infrastrukturą serwerową, rozwijaną w myśl koncepcji przetwarzania brzegowego. Dostępną w formie usługi chmurowej platformę HPE GreenLake Compute Ops Management charakteryzuje łatwość użytkowania, unifikacja środowiska i kompleksowa automatyzacja obsługi. Jest to rozwiązanie w pełni chmurowe, które nie wymaga od klientów żadnych działań poza zapewnieniem połączenia z poszczególnymi serwerami. Zapewniamy bezpieczną integrację z naszym środowiskiem chmurowym i za jego pośrednictwem umożliwiamy całościowe zarządzanie serwerami HPE.

Jak zmienią się potrzeby związane z przetwarzaniem danych i wykorzystaniem mocy obliczeniowej w perspektywie najbliższych lat?

Nie rozmawialiśmy jeszcze o sztucznej inteligencji ani o kwestii zrównoważonego rozwoju i efektywności energetycznej. Tymczasem oba te obszary będą napędzać innowacje w obszarze przetwarzania danych. Już dziś wiele firm zdaje sobie sprawę, że dane, które posiadają, są cennym zasobem biznesowym.

Umiejętność pozyskania wiedzy z danych napędza zaś chęć wykorzystania potencjału sztucznej inteligencji czy analityki biznesowej. To z kolei w ogromnym stopniu wpływa na wymagania względem mocy obliczeniowej. Im większe oczekiwania względem danych, im większa skala analizowanych danych, tym większe potrzeby względem mocy obliczeniowej. Jednak moc obliczeniowa niezbędna do efektywnego wykorzystania danych – których przecież przybywa w ogromnym tempie – rośnie jeszcze szybciej. Stopniowo zacierają się też różnice między systemami wysoce wydajnymi, a typowymi serwerami.

Bardzo istotna jest dziś też kwestia zrównoważonego rozwoju. HPE bardzo dużą wagę przykłada do monitorowania i ograniczania śladu węglowego. Pracujemy nad rozwiązaniami, które pomogą naszym klientom osiągać ich cele ESG. Z naszej perspektywy oznacza to zarówno potrzebę modernizacji procesów produkcji, jak i wdrażania rozwiązań, które pozwolą zwiększyć efektywność energetyczną.

Najnowsze serwery HPE ProLiant Gen11 w bardzo świadomy sposób gospodarują energią elektryczną. Zapewniamy też narzędzia ułatwiające wgląd w informacje o związanej z działaniem poszczególnych serwerów emisji gazów cieplarnianych. Rozumiemy tę potrzebę i stale rozwijamy funkcjonalność naszych rozwiązań w tym zakresie. Pomagamy klientom ocenić i zrozumieć jaki wpływ ma ich działalność na środowisko.

Tagi

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *