CIO
Cyfrowa transformacja, czyli technologie zmieniające biznes Promocja
Artykuł sponsorowany
Z Sebastianem Pawlakiem, CTO; Arturem Kamińskim, HP Cloud Sales Managerem, oraz Piotrem Zacharkiem, HP Servers Category Managerem w HP Polska, rozmawiamy o tym, jak nowoczesne technologie mogą skutecznie wspierać biznes w dobie cyfryzacji.
Na czym polega, powinna polegać, cyfrowa transformacja, która jest tematem przewodnim tegorocznego Forum HP Wyzwania IT? Jak się do niej przygotować?
Sebastian Pawlak: Cyfryzacja to przede wszystkim zamiana – formy, jakości, wydajności i postrzegania. To zastąpienie dotychczasowych procesów i przeniesienie ich w pełni do świata IT. Efektem jest automatyzacja i przekazanie części decyzyjności komputerom. Pierwszym krokiem jest niewątpliwie zdefiniowanie tych obszarów, które wymagają zmiany i jednocześnie takich, w których cyfryzacja może przynieść wymierne korzyści. Dalsze kroki to zaprojektowanie i implementacja środowiska IT.
Sesja plenarna Forum została podzielona na trzy główne tematy – Informacja, Komunikacja i Bezpieczeństwo. Czy to filary cyfrowej transformacji przedsiębiorstw?
S.P.: Celem cyfryzacji jest przede wszystkim podniesienie jakości oraz daleko idące ułatwienia. Wiemy, że największą wartością każdej firmy są dane, czyli informacja. Należy je przekazywać i przetwarzać w odpowiedni sposób, co wiąże się generalnie z komunikacją. Im więcej danych i procesów oddajemy w ręce komputerów, tym łatwiejsza jest nasza praca. Niesie to jednak ryzyko utraty lub kradzieży danych. Dlatego też ostatnim filarem cyfrowej transformacji jest bezpieczeństwo.
Na czym powinna polegać zmiana podejścia do informacji? Czy jej elementem jest sposób przechowywania i zarządzania informacją? Pytam, bo – poza funkcją CTO – pełni Pan także rolę architekta rozwiązań z zakresu pamięci masowych…
S.P.: Nie dostrzegamy dziś problemu w sposobie przechowywania. Pamięci masowe są bardzo pojemne i wyprzedzają zapotrzebowanie na przestrzeń co najmniej o kilka lat względem rynku. Inaczej jest z przetwarzaniem. Dlatego główną zmianą będzie sposób zarządzania i przetwarzania informacji. Największą wartością firmy są jej dane i sposób zrobienia z nich jak najlepszego użytku, co oznacza otrzymanie konkretnych danych w bardzo krótkim czasie. Jeśli raport powstaje przez 1-2 dni, to są to dla firmy dwa dni stracone. Dlatego przyspieszamy dostęp do danych…
To wymaga nowego podejścia do urządzeń je przechowywujących…
Artur Kamiński: Jednym z nich jest koncepcja Software Defined Storage i rozproszonego przetwarzania danych. Stosują ją największe firmy internetowe, takie jak Google i Facebook. Nie korzystają one z tradycyjnych macierzy, ale z rozwiązań programowalnych, dla których warstwą sprzętową są serwery x86. My także mamy takie rozwiązanie, oparte na OpenStack Swift. Są to rozwiązania HP Helion Content Depot.
Software Defined Storage, czy szerzej Software Defined-IT, to bardzo popularny obecnie kierunek rozwoju rozwiązań IT. Na czym polega?
S.P.: Sprzęt jest tylko jedną z warstw. Ta warstwa jest ściśle zdefiniowana. Znamy też plany rozwoju platform sprzętowych na kolejne lata. Oprogramowanie – jak internet – jest warstwą bez ograniczeń, pozwalającą na stworzenie dowolnego rozwiązania. Nie jesteśmy w stanie stworzyć uniwersalnego sprzętu, który zaspokoi każde, nawet najmniejsze potrzeby dowolnej firmy. Dlatego też dajemy klientom możliwość zaprogramowania naszego sprzętu. Każdy z nich może dowolnie zdefiniować, w jaki sposób działają wykorzystywane przez niego sieci, pamięci masowe, serwer czy ogólnie centrum danych.
Czy Software Defined-IT to istotny element cyfrowej transformacji?
S.P.: Zdecydowanie tak. Dzięki elastyczności w projektowaniu własnego data center każda firma ma możliwość dokładniejszego dopasowania infrastruktury do własnych wymagań. Efektem tego jest dużo wyższy zwrot z inwestycji w dużo krótszym czasie.
Celem cyfryzacji jest podniesienie jakości oraz daleko idące ułatwienia. Wiemy, że największą wartością każdej firmy są dane, czyli informacja. Należy je przekazywać i przetwarzać w odpowiedni sposób, co wiąże się generalnie z komunikacją. Im więcej danych i procesów oddajemy w ręce komputerów, tym łatwiejsza jest nasza praca. Niesie to jednak ryzyko utraty lub kradzieży danych. Dlatego też ostatnim filarem cyfrowej transformacji jest bezpieczeństwo.
Obecnie o przechowywaniu i analizie danych najwięcej mówi się w kontekście Big Data…
S.P.: I o tym chcę właśnie mówić na Forum HP Wyzwania IT, a także o danych ustrukturyzowanych i nieustrukturyzowanych znajdujących się w repozytoriach Big Data. W ich przechowywaniu nie ma różnicy. Zupełnie inne jest jednak podejście do tego, jak je analizować. Jako przykład Big Data podam wdrożenie w NASCAR, gdzie narzędzia analityczne wykorzystuje się do analizy dużych zbiorów wpisów na serwisach społecznościowych w trakcie wyścigów samochodowych. Dzięki temu pracownicy NASCAR wiedzą, jak reagować szybko na to, co się dzieje na trybunach. Inny przykład to analiza komentarzy dotyczących produktów Gatorade. W przypadku niezadowolonego – z jakiegokolwiek powodu klienta – pracownicy tej firmy natychmiast reagują, proponując mu np. dostawę bezpłatnych napojów jako rekompensatę. Big Data służą też do analizy płatności kartami kredytowymi i wykrywania oszustw. W Tesco zaś testowany jest system analizujący obrazy wideo z magazynów hipermarketów tej sieci. Gdy zaczyna brakować na półkach jakiegoś towaru, natychmiast wysyłana jest jego dostawa.
W jaki sposób poprawić efektywność rozwiązań do gromadzenia i przetwarzania wielkich zbiorów danych oraz zarządzania systemami klas Big Data?
Piotr Zacharek: Wielkie zbiory danych niosą konieczność zmiany sposobu przetwarzania danych. Rynek, klienci, dostawcy przyzwyczaili się do relacyjnych baz danych. Teraz coraz więcej informacji generowanych jest w postaci cyfrowej – wideo, audio, z serwisów społecznościowych. Klasyczne technologie bazodanowe nie potrafią sobie z tym poradzić. Stąd pojawienie się baz kolumnowych i przetwarzania in-memory.
Jeżeli jednak wgrywamy do in-memory bazę np. wielkości 1 TB, to proces ten trwa bardzo długo. Jak coś się nie uda, to musimy ten proces powtórzyć. Aby nie dopuścić do takiej sytuacji, musimy zapewnić niezawodną platformę. I tu pojawiają się rozwiązania HP Superdome X, które mogą mieć do 12 TB pamięci RAM. Rozwiązania te nie tylko pozwalają na przetwarzanie ogromnych zbiorów danych, ale także zwiększają znacznie bezpieczeństwo ich przetwarzania. Serwery HP Superdome X możemy bowiem podzielić na części odseparowane elektrycznie. Dzięki temu awaria jednego komponentu nie wpływa na działanie innych. Jednocześnie zastosowane przez nas rozwiązanie Firmware First powoduje, że dodatkowy poziom firmware maskuje przed systemem operacyjnym niektóre awarie – np. RAM – które dzieją się na poziomie sprzętu.
Do tego dochodzi aspekt finansowy. W przypadku licencjonowania np. bazy danych, płacimy tylko za część serwera faktycznie wykorzystywaną, a nie za wszystkie procesory, nawet jeśli Superdome X ma ich do 16. Ponadto w świecie serwerów x86 dodawanie kolejnych procesorów powoduje rosnące straty wydajności na wewnętrzną komunikację. W przypadku Superdome X tylko 5% mocy tego serwera jest przeznaczane na ten cel.
W HP pracujemy nad projektem nowej architektury – The Machine. Będzie ona miała dużo krótszy czas dostępu do danych, poza tym nie będzie rozgraniczała różnych rodzajów pamięci – cash procesora, pamięć flash, tradycyjny dysk, pamięć zewnętrzna. W The Machine ginie pojęcie pamięci masowych. To urządzenie pozwoli na stworzenie systemów, których przetwarzanie częściowo odbywać się będzie już w momencie zbierania danych.
Konieczność zbierania i analizowania wielkich zbiorów danych wymaga znacznych nakładów inwestycyjnych. Czy nowe technologie mogą prowadzić do obniżenia kosztów funkcjonowania infrastruktury IT?
A.K.: W HP pracujemy nad projektem nowej architektury – The Machine – bazującej na dostępności nowego modułu pamięci Memristor, który ma „umiejętność zapamiętania” ostatniego stanu, w którym się znajdował. Jednocześnie – w odróżnieniu od rozwiązań in-memory – po wyłączeniu zasilania, zapisana w The Machine informacja nie zginie. Można to porównać do stanu hibernacji komputera, ale bez konieczności zasilania.
The Machine będzie miał także dużo krótszy czas dostępu do danych, poza tym nie będzie rozgraniczał różnych rodzajów pamięci – cash procesora, pamięć flash, tradycyjny dysk, pamięć zewnętrzna. W The Machine ginie pojęcie pamięci masowych. To urządzenie pozwoli na stworzenie systemów, których przetwarzanie częściowo odbywać się będzie już w momencie zbierania danych. W efekcie, da to nową architekturę komputerów, które można będzie zastosować zarówno w maszynach dedykowanych centrom danych, jak i w komputerach powszechnego użytku. Powstać mają dużo tańsze w utrzymaniu i dużo prostsze w użyciu platformy, m.in. dzięki mniejszemu zużyciu energii.
Projekt The Machine wymaga opracowania nowego systemu operacyjnego, który ma nazwę kodową Carbon, a także aplikacji dostosowanych do wykorzystania możliwości nowej platformy. Prototyp The Machine pojawi się na rynku w roku 2016. Ale już teraz widać w naszych produktach te kierunki rozwoju. Są to m.in. rozwiązania in-memory, pamięci masowe typu all-flash czy serwery Moonshot.
Postępujący proces wirtualizacji obnażył jednak kilka problemów, które wcześniej nie występowały. Są to wąskie gardła z siecią i pamięciami masowymi. Obniżyliśmy wydatki na infrastrukturę fizyczną, ale jednocześnie rosną koszty związane z zarządzaniem infrastrukturą wirtualną. Efektem jest to, że TCO systemów wirtualnych zaczyna zbliżać się do poziomu kosztów z „poprzedniej epoki”. Z tym muszą się dziś mierzyć działy IT.
Poza kosztami utrzymania i prostotą użycia, ważne są także nieograniczona skalowalność, pojemność i wydajność macierzy…
A.K.: … i umożliwiają to dziś systemy pamięci masowych typu all-flash czy wirtualizacja pamięci masowych, a także platformy serwerowe nowej generacji, jak nasze serwery HP Moonshot. Dzięki temu możemy obsłużyć liczbę wywołań o rząd wielkości większą. Mamy więc nowe narzędzie do dalszego procesu konsolidacji pamięci masowych w środowiskach zwirtualizowanych.
Efektem ubocznym postępującej wirtualizacji jest zwiększenie kosztów operacyjnych związanych z planowaniem, integrowaniem i testowaniem rozwiązań. Czy możliwe jest takie podejście do tego procesu, aby nie generować dodatkowych kosztów i nie angażować dodatkowo działów IT?
P.Z.: Ponad 80% aplikacji działa już w środowiskach zwirtualizowanych. W tym roku na inwestycje w te technologie wydanych zostanie 3 mld USD. Postępujący proces wirtualizacji obnażył jednak kilka problemów, które wcześniej nie występowały. Są to wąskie gardła z siecią i pamięciami masowymi. Obniżyliśmy wydatki na infrastrukturę fizyczną, ale jednocześnie rosną koszty związane z zarządzaniem infrastrukturą wirtualną. Efektem jest to, że TCO systemów wirtualnych zaczyna zbliżać się do poziomu kosztów z „poprzedniej epoki”. Z tym muszą się dziś mierzyć działy IT. Równocześnie rosną wymagania biznesu. Ważne są takie cechy rozwiązań IT, jak: krótki okres tzw. Time to Market, optymalizacja kosztów oraz wsparcie innowacyjności. W niektórych branżach IT decyduje wręcz o konkurencyjności na rynku.
Obecnie największe problemy widać w związku z aktualnymi technologiami. Jako ich rozwiązanie proponujemy HP Converged System. To zintegrowane rozwiązania, które pozwalają skrócić czas trwania projektu wdrożenia nowej platformy z kilku miesięcy do mniej niż 30 dni. Dzięki temu również klient nie ma problemu z integracją i późniejszym wsparciem heterogenicznych rozwiązań. Systemy konwergentne bowiem to nie tylko zintegrowana infrastruktura skracająca czas wdrożenia, lecz także zintegrowana odpowiedzialność. Bierzemy odpowiedzialność za całą platformę – od sprzętu po oprogramowanie.
Na Forum będzie opowiadał Pan o technologiach wirtualizacji nowej generacji? Czy rozwiązania te oferowane są także w ramach HP Converged System?
P.Z.: Mamy trzy klasy rozwiązań dla wirtualizacji. Dwa to urządzenia typu appliance. Są to w pełni skonfigurowane rozwiązania HP Converged System 200, które można wdrożyć w ciągu kilku czy kilkunastu godzin, oraz HP Converged System 700 dla dużych centrów danych. Pozwalają w bardzo krótkim czasie uruchomić do 1000 wirtualnych maszyn. W przypadku HP Converged System 700X można także wybrać platformę wirtualizacyjną. Poza VMware, również Microsoft Hyper-V. Do tego dochodzą narzędzia do automatyzacji zarządzania. Staramy się np. tak przygotować uaktualnienie firmware, aby administratorzy mieli jak najmniejszy problem z jego instalacją.
Więcej na konferencji HP Forum Wyzwania IT 2015.