InfrastrukturaPolecane tematy

Pomagamy chronić dane i podejmować świadome decyzje zmierzające do optymalizacji kosztów backupu

Promocja

Z Leonidem Venglinskim, Inżynierem Systemów w Veritas Technologies LLC oraz Konradem Puchałą, Kierownikiem Działu Składowania i Ochrony Danych w firmie Advatech rozmawiamy o systemach zarządzania danymi oraz trendach w rozwoju infrastruktury IT.

Pomagamy chronić dane i podejmować świadome decyzje zmierzające do optymalizacji kosztów backupu

Jakie są obecnie największe wyzwania dotyczące obszaru zarządzania danych, archiwami oraz kopiami zapasowymi? Jakie są główne trendy widoczne w tym obszarze?

Leonid Venglinski (L.V.): Obserwujemy dalszą konieczność optymalizacji infrastruktury z zachowaniem niezależności od dostawcy sprzętowego. Danych wymagających ochrony szybko przybywa, a pełna otwartość na technologie dyskowe i taśmowe różnych producentów w produktach Veritas pozwala łatwo modernizować infrastrukturę przy minimalizacji kosztów i braku kosztownych migracji. Klient korzystający z aplikacji Veritas NetBackup może skorzystać z urządzeń Veritas Appliance 5240/5340 czy Veritas Access 3340, ale co ważniejsze, ma pełną swobodę wyboru technologii przechowywania danych innych producentów, co w ujęciu długoterminowym obniża łączne koszty wdrożenia i posiadania rozwiązań do ochrony danych. Aby to było możliwe Veritas adresuje pojawiające się wyzwania technologiczne, zapewnia adaptację chmury publicznej, chroni nowoczesne środowiska oparte o konteneryzację oraz bazy danych i aplikacje OpenSource.

Pomagamy chronić dane i podejmować świadome decyzje zmierzające do optymalizacji kosztów backupu

Chmura publiczna ma kluczowy wpływ na rozwój produktów Veritas. W najprostszym przykładzie chmura publiczna może być medium długoterminowego składowania kopii zapasowej. Jednak, aby miało to sens kosztowy i biznesowy niezbędna jest aplikacja, która przed wysłaniem do chmury, deduplikuje i szyfruje dane tak, aby zminimalizować koszty ich składowania. Taką rolę pełni nasz system Veritas Cloud Catalyst.
Leonid Venglinski, Inżynier Systemów w Veritas Technologies LLC

W Polsce, podobnie jak na całym świecie, systematycznie wzrasta zainteresowanie usługami opartymi na modelu publicznej chmury obliczeniowej. W jaki sposób takie trendy wpływają na rozwój narzędzi Veritas w obszarze tworzenia oraz przywracania kopii zapasowych?

L.V.: Pilnie obserwujemy ruchy gigantów, bo chmura publiczna ma kluczowy wpływ na rozwój produktów Veritas. W najprostszym przykładzie chmura publiczna może być medium długoterminowego składowania kopii zapasowej. Jednak, aby miało to sens kosztowy i biznesowy niezbędna jest aplikacja, która przed wysłaniem do chmury, deduplikuje i szyfruje dane tak, aby zminimalizować koszty ich składowania. Taką rolę pełni nasz system Veritas Cloud Catalyst. Lokalny cache pozwala obniżyć koszt odczytu danych z chmury, a w razie katastrofy w lokalizacji głównej można od razu przystąpić do odtwarzania w chmurze, gdyż są tam zarówno kopie zapasowe jak i meta-dane potrzebne do ich odtworzenia. Teraz inny przykład – zdarza się, że trzeba przełączyć własne Data Center na chmurę publiczną. Mamy do tego narzędzie Veritas Resiliency Platform, które pozwala na budowę i realizację scenariusza takiego przełączenia wraz z rekonfiguracją sieci i integracją z systemem backupu.

W jaki sposób rozwiązania Veritas wspierają środowiska, dla których chmura publiczna nie pełni jedynie roli zapasowego centrum danych, ale jest fundamentem całej infrastruktury IT?

L.V.: Pamiętajmy o tym, że niezależnie od technologii, sprzętu, wybranych rozwiązań etc. najważniejsza jest świadomość, że za ochronę danych odpowiada klient, a nie dostawca infrastruktury publicznej. Każda infrastruktura wymaga ochrony. Możliwości i dostępnych technologii jest kilka. W chmurze możemy uruchomić tradycyjny serwer backupu oparty o Veritas NetBackup, lub skorzystać z Veritas CloudPoint, który zapewnia zarządzanie migawkami i odtwarzaniem w środowiskach multi-cloud. Natomiast do ochrony Microsoft Office 365 proponujemy Veritas SaaS Backup.

Pomagamy chronić dane i podejmować świadome decyzje zmierzające do optymalizacji kosztów backupu

Advatech jest partnerem Veritas od wielu lat i przez ten czas widzimy ogromne korzyści płynące z otwartości Veritas na technologie sprzętowe wielu producentów. Mamy dużych klientów, u których wdrożenie systemu Veritas NetBackup odbyło się 12-15 lat temu i system ten działa do dzisiaj, choć infrastruktura się zmieniała, pojawiały się urządzenia dyskowe z deduplikacją, a teraz postępuje stopniowa eliminacja taśm na korzyść urządzeń obiektowych.
Konrad Puchała, Kierowniki Działu Składowania i Ochrony Danych w firmie Advatech

Jaka jest rola firmy Advatech jako partnera Veritas w Polsce?

Konrad Puchała (K.P.): Szybko rosnąca ilość danych podlegających ochronie powoduje, iż często z naszymi klientami rozmawiamy o kosztach wymaganych modernizacji, wymiany infrastruktury oraz utrzymania systemu w kolejnych latach. Jest to naprawdę duże wyzwanie, wymagające sporej wiedzy i doświadczenia. Jeśli zauważymy, że każdy 1 TB danych źródłowych wytwarza 10 – 20 TB danych w systemie backupu, to widać, że rozmawiamy o sporych pieniądzach.
Advatech jest partnerem Veritas od wielu lat i przez ten czas widzimy ogromne korzyści płynące z otwartości Veritas na technologie sprzętowe wielu producentów. Mamy dużych klientów, u których wdrożenie systemu Veritas NetBackup odbyło się 12-15 lat temu i system ten działa do dzisiaj, choć infrastruktura się zmieniała, pojawiały się urządzenia dyskowe z deduplikacją, a teraz postępuje stopniowa eliminacja taśm na korzyść urządzeń obiektowych zoptymalizowanych do długoterminowego przechowywania danych.

Dlaczego urządzenia obiektowe wypierają nośniki taśmowe, które przecież zapewniają najniższe koszty składowania danych?

K.P.: Jeżeli spojrzymy kompleksowo na backup i archiwizację, to dostrzeżemy, że w wielu przypadkach taśmy wcale nie są najtańszym nośnikiem. Systemy backupu są często przeładowane danymi składowanymi na wiele lat, a pamiętajmy, że głównym celem systemu kopii zapasowych jest odtwarzanie danych po awarii z najświeższej możliwej kopii. Wielu klientów systemy backupu traktuje jako archiwum, gdyż tak jest najprościej, a dane archiwalne zwykle trafiają na taśmę. Jednak, gdy do kosztu archiwum na taśmach doliczyć licencje systemu backupu, napędy, pozostałą część infrastruktury i długi czas dostępu do danych, trudniejszą ochronę DR, to w wielu obszarach korzystniej jest zastosować dyskowe urządzenia obiektowe.

Mamy przykłady z naszej krajowej praktyki – w jednym z banków uruchomiliśmy urządzenia Veritas Access 3340, które dzięki wbudowanej deduplikacji i optymalizacji replikacji danych łączą niski koszt składowania, bardzo wysoką pojemność z krótkim czas dostępu do danych. Dostępne interfejsy obiektowe pozwalają na bezpośrednią integrację z aplikacją wymagającą archiwizacji, bez pośrednictwa i kosztów systemu backupu. Bazy danych i aplikacje można archiwizować bezpośrednio na Veritas Access z użyciem protokołów obiektowych S3 czy REST API lub plikowo, przy użyciu CIFS lub NFS. Do archiwizacji poczty i serwerów plików proponujemy Veritas EnterpriseVault zintegrowanego z Veritas Access. Do takiego właśnie podejścia zachęcamy naszych klientów.

W jaki sposób efektywnie wybierać dane biznesowe, które powinny zostać poddane archiwizacji? Na jakiej podstawie podejmować decyzje dotyczące wyboru nośnika i sposobu przechowywania takich danych, aby zoptymalizować koszty?

K.P.: Jest to jedno z trudniejszych wyzwań. Praktyka pokazuje, że zawsze spora cześć danych jest nierozpoznana, nie ma właściciela, nie ma związku z prowadzoną działalnością, teoretycznie można je usunąć, ale brakuje skutecznej metody ich wskazania. Ten obszar dark data może stanowić około 50% wszystkich danych. W takich wyzwaniach pomocne są rozwiązania Veritas Information Studio oraz Veritas Aptare. Pierwszy z nich pomaga w analizie zawartości danych, klasyfikacji, identyfikacji danych osobowych, rozpoznaniu profili ich wykorzystania, określeniu właściciela lub jego braku. Z kolei Aptare to rozbudowana analityka infrastruktury IT, wbudowane mechanizmy AI, wskazuje obszary, gdzie występuje ryzyko utraty danych lub gdzie można dokonać optymalizacji wydajności i zasobów. Pozwala to uzyskać przekrojowy obraz danych i infrastruktury całej organizacji. Na tej podstawie możemy już podejmować świadome i skuteczne decyzje zmierzające do optymalizacji i zmniejszenia kosztów utrzymania infrastruktury IT.

Tagi

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *