MENU

Dajemy narzędzie pozwalające na elastyczne przenoszenie danych
EVP

5 kwietnia 2017Artykuł z magazynu ITwiz, CIO, Executive ViewPoint, Polecane tematy

Executive ViewPoint
Z Maciejem Bocianem, Country Leaderem NetApp w Polsce, rozmawiamy o koncepcji Data Fabric, która uniezależnia firmy od miejsca przechowywania danych, a co ważniejsze, pozwala na dowolne przenoszenie zgromadzonych informacji z własnych centrów danych do chmury i umożliwia ich dalsze bezproblemowe przesuwanie ponownie do centrum lub innej chmury, jak również o rozwoju funkcjonalności systemów All-Flash FAS.

Dzięki naszym rozwiązaniom zgodnym z koncepcją Data Fabric dane klientów, niezależnie od tego, gdzie rezydują, mogą być w prosty sposób przenoszone czy też synchronizowane pomiędzy różnymi lokalizacjami i urządzeniami. Nie ma znaczenia, czy będą to systemy pamięci masowych znajdujące się w centrum danych klienta, czy w chmurze publicznej. Klient nie musi zastanawiać się, jak połączyć własne rozwiązania z chmurą, dzięki ONTAP Cloud może bowiem w prosty sposób zarządzać danymi i je dowolnie migrować.

Z raportów zachodnich firm analitycznych – m.in. Right Scale – wynika, że coraz więcej firm korzysta z chmury publicznej i hybrydowej, niekiedy kosztem chmury prywatnej. To oznacza także przenoszenie danych z własnego centrum przetwarzania danych do chmury i z powrotem. Tymczasem organizacje często mają problem z odtworzeniem danych w swoim środowisku, o kosztach z tym związanych nie wspominam…

Stąd nasza idea Data Fabric, która jest bardzo dobrze przyjmowana przez klientów w Europie. Zakładamy, że jeśli wszystkie nasze produkty będą „rozmawiać ze sobą tym samym językiem”, to klienci będą mogli migrować dane w dowolny sposób i w dowolne miejsce. Jest to jeden ze strategicznych kierunków rozwoju NetApp. Jako jeden z ostatnich niezależnych producentów macierzy koncentrujemy się bowiem wyłącznie na zarządzaniu danymi. Dzięki temu utrzymujemy najwyższą jakość i innowacyjność naszych rozwiązań.

Na czym dokładnie polega koncepcja Data Fabric?

Dzięki naszym rozwiązaniom, a w szczególności oprogramowaniu ONTAP – dostępnym zarówno na macierzach, jak i w wersji wirtualnej ONTAP Select oraz chmurowej ONTAP Cloud – dane klientów, niezależnie od tego, gdzie rezydują, mogą być w prosty sposób przenoszone czy też synchronizowane pomiędzy różnymi lokalizacjami i urządzeniami. Nie ma znaczenia, czy będą to systemy pamięci masowych znajdujące się w centrum danych klienta, czy w chmurze publicznej. Klient nie musi zastanawiać się, jak połączyć własne rozwiązania z chmurą, dzięki ONTAP Cloud może bowiem w prosty sposób zarządzać danymi i je dowolnie migrować. Ponieważ ONTAP Cloud dostępny jest na platformach Microsoft Azure i Amazon Web Services, w obu tych chmurach użytkownicy dysponują tą samą funkcjonalnością, którą mają na urządzeniach NetApp we własnym centrum danych. Warto zaznaczyć, że Microsoft i Amazon chętnie z nami współpracują, dostrzegając unikatowość osiąganych dzięki tej współpracy synergii. Niejednokrotnie to właśnie od dostawców usług chmury publicznej otrzymujemy informacje, że ich klienci poszukują rozwiązania do zarządzania danymi we własnym data center.

Jakie korzyści klienci otrzymują, wykorzystując rozwiązania NetApp, zarówno we własnym centrum danych, jak i w chmurze publicznej?

Zalet jest wiele. Poza wspomnianą już swobodą w przenoszeniu danych istotną korzyść stanowią oszczędności. Zastosowanie ONTAP lub ONTAP Cloud znacząco obniża koszty przeniesienia, a następnie zreplikowania ponownie danych do data center. Niektóre rozwiązania – jak choćby typu Test & Development – tworzy się już właściwie wyłącznie w chmurze. Częstokroć usługi cloud computing wykorzystuje się również do przetwarzania dużych zbiorów danych. W pierwszym etapie dochodzi zatem do replikacji danych do chmury, w której są one przetwarzane, w kolejnym kroku do pobrania wyniku tego przetwarzania. Dzięki naszym rozwiązaniom klienci przesyłają wyłącznie zmienione fragmenty danych, a nie cały ich pakiet. W oczywisty sposób obniża to zarówno czas replikacji, jak i koszty opłat za transfer danych, które są zazwyczaj wyższe niż za przeniesienie zasobów do chmury. Zachowany zostaje również własny format danych, co oznacza, że klient nie musi dostosowywać się do formatu narzuconego przez dostawcę usług cloud computing.

Dzięki rozwiązaniom NetApp Data Fabric dużo łatwiej jest też przenosić dane z jednej chmury do drugiej. Podczas jednej z naszych konferencji zasymulowaliśmy awarię u dostawcy usług cloud computing. W ciągu kilku sekund przetwarzająca dane aplikacja automatycznie przełączyła się do alternatywnej chmury. Oczywiście tego typu rozwiązania trzeba odpowiednio wcześnie zaplanować, lecz wiedza o możliwościach oferowanych przez koncepcję Data Fabric daje klientom taką możliwość i pozwala im na osiągnięcie najwyższego poziomu dostępności danych.

Rozwiązania hybrydowe to przyszłość przechowywania danych, co obecnie bardzo widoczne jest chociażby za oceanem. Klienci coraz powszechniej dążą do tego, by zbudowana już lokalnie infrastruktura była w pełni skalowalna do chmury i tworzyła spójne rozwiązanie hybrydowe. Ponadto warto wspomnieć, że NetApp we współpracy z Equinix oferuje usługę NetApp Private Storage. Dzięki niej klienci mogą uruchamiać w chmurze publicznej przetwarzanie danych znajdujących się w wydzielonej dla nich części lokalnego data center Equinix. Jest to możliwe poprzez zastosowanie rozwiązań NetApp.

W jaki sposób klienci mogą zarządzać infrastrukturą hybrydową?

Zarządzanie infrastrukturą – nie tylko naszymi macierzami, lecz również rozwiązaniami konkurencji – oraz przechowywanymi w niej danymi znacząco ułatwia NetApp OnCommand Insight. Narzędzie to pozwala łatwo uzyskać informacje na temat tego, jak wygląda utylizacja zasobów, kiedy należy dokupić kolejną macierz, a także czy system przechowywania danych działa wydajnie. NetApp OnCommand Insight umożliwia monitorowanie zasobów zwirtualizowanych i sieciowych, w tym Storage Area Network. Rozwiązanie to pozwala łatwo zlokalizować miejsce, które może być przyczyną awarii infrastruktury. Przede wszystkim jednak dzięki NetApp OnCommand Insight klient od razu wie, kto powinien się zająć rozwiązaniem problemu – czy jest to zadanie dla administratora aplikacji, sieci SAN, serwerów wirtualnych, czy może pamięci masowych.

Zarządzanie cyklem życia danych w firmie ułatwia z kolei rozwiązanie NetApp StorageGRID Webscale. Dzięki temu, że oferujemy je również w formie oprogramowania, klienci mogą wykorzystać istniejącą już infrastrukturę systemów pamięci masowych. StorageGRID pozwala na tworzenie dowolnych polityk zarządzania cyklem życia danych. Można np. z góry ustalić, że przez pierwszy miesiąc informacje przechowywane są w „n” lokalizacjach, zaś w kolejnym miesiącu są przenoszone na taśmy. Zdejmuje to z barków administratorów konieczność bieżącego decydowania o tym, co należy zrobić z generowanymi i zbieranymi danymi. Automatycznie można zarządzać także tym, gdzie przechowywać dane w zależności od ich pochodzenia. Najbardziej „gorące” dane przechowywane mogą być oczywiście w pamięciach typu Flash. Macierze typu All-Flash to drugi ze strategicznych kierunków rozwoju NetApp.

Jak do rozwiązań opartych na dyskach SSD podchodzą klienci? Rozwiązania typu Flash postrzegane są jako drogie…

Z naszych wyliczeń wynika, że paradoksalnie całkowity koszt takiego rozwiązania może być niższy niż macierzy tradycyjnej lub hybrydowej. Dzięki zastosowaniu coraz większych dysków SSD – 15 TB, a niebawem 30 TB – w szafie stelażowej możemy umieścić znacznie mniej półek dyskowych, co przekłada się m.in. na mniejsze zużycie prądu oraz ograniczanie kosztów związanych z najmem powierzchni. Wydatki na serwis obniża natomiast bezpłatna wymiana kontrolerów w macierzach na nowe, odpowiadające im klasą, w momencie upływu okresu trzyletniego. Opcję taką oferujemy w ramach serwisu Premium, który klienci mogą wydłużyć nawet do siedmiu lat. Poza tym klienci, którzy używają naszych rozwiązań i skorzystają z programu „capacityefficiency5:1”, bazującej na funkcjonalności kompresji, deduplikacji oraz kompakcji, otrzymują gwarancję, dzięki której, jeśli stopień optymalizacji danych po tym procesie będzie gorszy niż wynikałoby to z naszej oferty, bezpłatnie uzyskają dodatkowe dyski SSD do swojej macierzy.

W jaki sposób można skalować infrastrukturę opartą na Państwa systemach pamięci masowej?

Nasze nowe macierze FAS domyślnie gotowe są do pracy w klastrze, co pozwala na rozbudowę całego systemu pamięci masowej w praktycznie nieograniczonym zakresie. Klient może np. kupić początkowo najmniejszą z macierzy i dokładać do niej – w miarę potrzeb – kolejne półki dyskowe. Gdy skończy się możliwość jej rozbudowy – właśnie dzięki funkcjonalności klastra – można do całej infrastruktury dołączyć kolejną macierz, tym razem średniej wielkości. Nasze macierze można łączyć dowolnie. Nie muszą to być te same modele. W ten sposób system pamięci masowej można rozbudowywać w górę, aż do rozwiązań klasy Enterprise – FAS9000. Na końcu zaś całą infrastrukturę można połączyć z chmurą publiczną poprzez rozwiązanie ONTAP Cloud, czyli wracamy do koncepcji Data Fabric.

Co warto podkreślić, macierze NetApp, dzięki w pełni nadmiarowej architekturze, mają możliwość rozbudowy lub zmiany oprogramowania bez konieczności ich wyłączania. Rozwiązuje to problem z tzw. oknem serwisowym i jest o tyle istotne, że infrastruktura IT wielu przedsiębiorstw musi działać non stop.

W roku 2015 przejęli Państwo firmę SolidFire…

Jest to rozwiązanie komplementarne do naszych pozostałych produktów all-flash i prezentuje całkowicie odmienną filozofię projektowania systemów pamięci masowych. SolidFire dedykowany jest m.in. firmom typu Service Provider. Dzięki zastosowanym w nim rozwiązaniom, ułatwiającym skalowanie środowiska IT wydajnościowo i pojemnościowo, bardzo rozbudowaną infrastrukturą może zarządzać zaledwie jeden lub dwóch administratorów.

Podobne tematy:

Dodaj komentarz

Twój adres email nie zostanie opublikowany. Pola, których wypełnienie jest wymagane, są oznaczone symbolem *

« »