InfrastrukturaCIOPolecane tematy
Data Fabric pozwala nam być niezależnym sprzętowo operatorem środowisk chmurowych
Executive ViewPoint
O zmieniających się potrzebach biznesu względem IT, konieczności wypracowania sposobów radzenia sobie z dynamicznymi zmianami wymagań biznesowych i rosnącą złożonością środowisk IT, a także o koncepcji Data Fabric, unikalnych rozwiązaniach hiperkonwergentnych i wsparciu modelu multicloud mówi Artur Borowski, Country Manager NetApp w Polsce.
Data Fabric to architektura NetApp, która opiera się na założeniu, że skoro świat biznesu jest dziś oparty na danych, to wszystkie warstwy IT powinny obsługę danych wspierać, ułatwiać, czynić naturalną, efektywną ekonomicznie codziennością. Wokół tej koncepcji budujemy rozwiązania pozwalające budować i modernizować lokalne centra danych, z wszystkimi właściwymi dla nich profesjonalnymi elementami składowania, ochrony, przetwarzania i udostępniania danych.
Jakie problemy mają dziś firmy w kontekście rozwoju infrastruktury IT?
Głównym wyzwaniem dla środowisk związanych z przetwarzaniem informacji jest zalew informacji. Firmy gromadzą ogromne ilości danych – mogą to robić, ale i potrzebują. Nie bez powodu mówi się, że dane są paliwem dzisiejszej gospodarki. W efekcie rośnie i potrzeba, i konieczność wykorzystania wszelkiego rodzaju analityki. Ten kierunek rozwoju napędzają zarówno potrzeby klientów, jak i rozwój technologii IT, rozbudzający apetyty na więcej, lepiej, szybciej.
W wielu firmach wyzwaniem samym w sobie stał się poziom skomplikowania infrastruktury IT, wskutek łączenia się firm, czego ostatnio nie brakuje, czy też wprowadzania nowych usług. W takich sytuacjach, jednym z istotniejszych problemów jest brak pełnej wiedzy na temat posiadanych zasobów: ich możliwości, stopnia wykorzystania, poziomu integracji, a co za tym idzie – możliwości zapewnienia optymalnego przepływu danych. W takich sytuacjach najlepiej zacząć od audytu całej struktury – jej architektury i poszczególnych komponentów. Firma NetApp dostarcza narzędzia, które pozwalają przeprowadzić taki proces – zajrzeć w głąb infrastruktury, zinwentaryzować zasoby i sprawdzić przepływy danych, wykryć wąskie gardła – zarówno w środowisku lokalnym, jak i chmurowym. To dwa bezagentowe narzędzia: On Command Insights i Cloud Insights, plus fachowa analiza wyników, które wielu osobom otwierają oczy.
Tego typu „inwentaryzacja” to pierwszy krok, a później – już jest łatwiej. Na podstawie wyników audytu oraz dzięki spójnej koncepcji Data Fabric, w obszarach zarówno struktury lokalnej jak i chmurowej, firma NetApp oferuje solidny sposób konsolidacji wszystkich zasobów, niezależnie od tego, na jakich rozwiązaniach są oparte. Nie ma limitów.
No właśnie, w jakich rozwiązaniach specjalizuje się dziś NetApp?
W obszarze infrastruktury jesteśmy największym na świecie dostawcą pamięci masowych opartych na technologii flash. Dziś jest to technologia na tyle okrzepła, szybka i sprawdzona, niektórzy mówią – stara, że powinna znaleźć się w każdym nowoczesnym środowisku IT. To już nasza codzienność. Rozwiązania oparte na tej technologii niosą same zalety, począwszy od szybkości działania, przez optymalizację użytkowej pojemności systemów, a skończywszy na równie przecież ważnych aspektach, tj. związanych z kosztem utrzymania.
W koncepcji Data Fabric firmy NetApp, technologia flash to też krok w kierunku, spójnych z nią, rozwiązań chmurowych. Ten zaś obszar staje się aktualnie najważniejszym kierunkiem rozwoju firmy, jej rozwiązań i usług. Praktycznie każdy z produktów sprzętowych NetApp jest jednocześnie bramą do chmury, czy to prywatnej, czy publicznej. Stąd już prosta droga do korzystania z usług chmurowych NetApp Cloud, tj. natywnego budowania struktur IT w środowisku dowolnego z liderów tej dziedziny: Microsoft, Google, AWS, Alibaba, każdego z osobna i wszystkich razem. Limitów nie ma i o tym jak ma wyglądać skonsolidowana architektura danego rozwiązania, decyduje wyłącznie potrzeba biznesowa. To ogromny postęp i tu NetApp jest niekwestionowanym liderem rynku.
Pamiętam z własnego doświadczenia projekt jednego z banków, dotyczący potrzeby analizowania zachowań posiadaczy kart kredytowych. Spora inwestycja sprzętowa, masa wysiłku projektantów, prokurmentu, a później wdrożeniowców i zespołu utrzymania infrastruktury. Do tego czas – miesiące! Dziś z NetApp tego typu projekty można zrealizować inaczej – szybciej, łatwiej, lepiej. W większości wypadków, również ze względów prawnych, będzie to hybryda – szybkie, dedykowane i lokalne rozwiązanie oparte na technologii flash, ale połączone z usługami przetwarzania danych i analityki w chmurze. Wszystko pod kontrolą tego samego systemu operacyjnego i interfejsu administratora.
Wynika stąd kilka istotnych zalet, takich jak: szybkość uruchomienia całego środowiska – tygodnie, nie miesiące, spójny model abonamentowy części chmurowej i możliwość elastycznego dostosowywania środowiska do realnych potrzeb, możliwość szybkiej weryfikacji, czy dany projekt biznesowy ma szansę powodzenia i czy warto go kontynuować. Oczekiwane przez biznes efekty są osiągalne niemal natychmiast. Takie projekty chcemy i potrafimy realizować.
Na czym polega koncepcja Data Fabric?
Data Fabric to architektura, która opiera się na założeniu, że skoro świat biznesu jest dziś oparty na danych, to wszystkie warstwy IT powinny obsługę danych wspierać, ułatwiać, czynić naturalną, efektywną ekonomicznie codziennością. Wokół tej koncepcji budujemy rozwiązania pozwalające budować i modernizować lokalne centra danych, z wszystkimi właściwymi dla nich profesjonalnymi elementami składowania, ochrony, przetwarzania i udostępniania danych, oraz włączać je do środowiska wielochmurowego, beż żadnych kompromisów i bez barier technologicznych pomiędzy. Wraz z wdrożeniem koncepcji Data Fabric firma NetApp zrobiła niebywałą rzecz. Z dostawcy rozwiązań infrastrukturalnych stała się niezależnym sprzętowo operatorem środowisk chmurowych. Dziś firma potrafi nie tylko konkurować z każdym innym producentem rozwiązań infrastruktury lokalnej, ale też zapewnić kompletne środowisko chmurowe, praktycznie niezależnie od wykorzystywanej infrastruktury fizycznej. Z perspektywy zarządzania, całość środowiska – to co lokalne i to co w chmurze – widziana jest jako jedna platforma.
Dzięki temu NetApp ma też dość unikalną pozycję na rynku usług chmurowych…
Faktycznie. Koncepcja chmury hybrydowej i model multicloud oznaczają możliwość dynamicznego przenoszenia obciążeń pomiędzy środowiskami chmury obliczeniowej, między platformami różnych dostawców i środowiskiem lokalnym. Aby było to w pełni realne, potrzebny jest dostawca, który zapewni rozwiązania pozwalające na swobodne poruszanie się między środowiskami chmury i lokalnymi, w tym cały zestaw analityki i narzędzi do całościowego zarządzania infrastrukturą z poziomu jednego rozwiązania. Rozwiązania firmy NetApp umożliwiają takie procesy i pozwalają zarządzać całością jak jednym środowiskiem lokalnym.
NetApp jest nie tyle brokerem usług świadczonych przez firmy trzecie, ale stroną – faktycznym usługodawcą, świadczącym usługi własne, skrzętnie zdefiniowane i zakontraktowane w formie umów i licencji. Firma ten obszar traktuje jak część całej infrastruktury danych, bierze odpowiedzialność za działanie całego środowiska i zapewnia swobodną możliwość dowolnych rekonfiguracji w ramach jednego kontraktu. Usługi uruchamiane są na platformach dowolnej ze wspomnianych wcześniej firm, z możliwością dowolnych migracji – bez limitów i ograniczeń; decyduje potrzeba biznesowa. Dzięki takiemu podejściu firma staje się praktycznie partnerem biznesowym swoich odbiorców.
W jakich zastosowaniach szczególnie sprawdza się model chmurowy?
Rozwiązania chmurowe, to już codzienność. Ktoś kiedyś ładnie powiedział, że dla niego chmura to jak woda z kranu; nikt się nie zastanawia, skąd się bierze – pijemy. Przez jakiś czas praktykę w branży IT łączyłem z branżą diagnostyki medycznej. Tam chmura znalazła silne uzasadnienie i w procesie diagnostyki, i ekonomiczne. Obraz medyczny musi być dostępny w miejscu, gdzie specjalista ma postawić diagnozę, gdzie ulegamy wypadkowi, gdzie szukamy pomocy. Rzadko wszystko to dzieje się zawsze i tylko w naszym ulubionym szpitalu i gabinecie naszego ulubionego lekarza.
Brytyjski odpowiednik NFZ jako jeden z pierwszych na świecie zadecydował, że dane pacjentów – odpowiednio zabezpieczone – zostaną umieszczone w chmurze i udostępnione w jednym miejscu autoryzowanym osobom. Dzięki temu informacje medyczne rzeczywiście wędrują za pacjentem i są osiągalne natychmiast, wszędzie tam, gdzie są potrzebne. Unika się też w ten sposób ponoszenia dodatkowych nakładów finansowych i uciążliwości dla pacjenta, kiedy tych danych brak i trzeba zrobić komplet tych samych badań jeszcze i jeszcze raz.
Jak zmienia się rola partnerów NetApp?
W branży, w której wciąż wszystko się zmienia, partnerzy NetApp odnajdują i w tej zmianie to co powinni – szansę, a nie zagrożenie. Początkowe założenie mówiące, że wszystkie elementy środowisk IT zostaną kiedyś przeniesione do chmury i wszystko przejmą w swoje ręce wielcy operatorzy, jest nie tyle niepokojące, co błędne. Dane migrować będą w jedną i w drugą stronę. Potrzebny jest ktoś, kto zarządzi tymi procesami, obuduje właściwymi usługami dostawcy i własnymi.
Dziesięć najbardziej atrakcyjnych zawodów następnego dziesięciolecia, spośród wszystkich branż, to zawody odnoszące się do przetwarzania danych. To jest kierunek dla naszych partnerów, gdzie budują i powinni budować swoje kompetencje. Zresztą to nic dla nich nowego. W architekturze Data Fabric NetApp wszystkie te procesy wyglądają podobnie, to tylko platforma środowiska poszerza się o część chmurową. Ważne by widzieć całość jako jeden organizm i optymalizować zgodnie z potrzebą biznesową klientów. Partnerzy NetApp potrafią to robić.
NetApp rozwija też ofertę rozwiązań hiperkonwergentnych…
Dla NetApp infrastruktura HCI to nie tyle prosty, modularny system do budowania lokalnych centrów danych, ale brama do usług w chmurze i silnie z nią zintegrowany element całości struktury. Rozwiązania NetApp, przy zachowaniu właściwej tym rozwiązaniom łatwości instalacji, charakteryzują się więc przede wszystkim unikalnym podejściem do skalowalności. Wbudowane elementy modularności systemu pozwalają skalować rozwiązanie małymi krokami, tj. zgodnie z aktualnymi potrzebami użytkownika: tyle i tylko tyle ile potrzeba. Całość jest jednocześnie w pełni otwarta na chmurę.
Wbudowane mechanizmy QoS pozwalają bardzo precyzyjnie zarządzać jakością przepływu danych do poziomu konkretnego użytkownika systemu. W efekcie, cały system nastawiony jest na niezawodność połączoną z przyjazną użytkownikowi automatyką. Znowu przychodzi mi do głowy przykład z wodą z kranu – ma być, ma być dobra i wszędzie. NetApp HCI ma działać, ma działać dobrze i wszędzie. Paradoksalnie system, który początkowo pozycjonowany był do środowisk z ograniczonymi zasobami IT, najczęściej trafia do klientów z sektora finansowego. Jak widać, obydwa te światy myślą podobnie; potrzeby obydwu tych światów bardzo się upodobniają; obydwa mogą spotkać się pod jednym i tym samym logo.