InfrastrukturaPolecane tematy

Pomagamy chronić dane i podejmować świadome decyzje zmierzające do optymalizacji kosztów backupu

Promocja

Z Leonidem Venglinskim, Inżynierem Systemów w Veritas Technologies LLC oraz Konradem Puchałą, Kierownikiem Działu Składowania i Ochrony Danych w firmie Advatech rozmawiamy o systemach zarządzania danymi oraz trendach w rozwoju infrastruktury IT.

Pomagamy chronić dane i podejmować świadome decyzje zmierzające do optymalizacji kosztów backupu

Jakie są obecnie największe wyzwania dotyczące obszaru zarządzania danych, archiwami oraz kopiami zapasowymi? Jakie są główne trendy widoczne w tym obszarze?

Leonid Venglinski (L.V.): Obserwujemy dalszą konieczność optymalizacji infrastruktury z zachowaniem niezależności od dostawcy sprzętowego. Danych wymagających ochrony szybko przybywa, a pełna otwartość na technologie dyskowe i taśmowe różnych producentów w produktach Veritas pozwala łatwo modernizować infrastrukturę przy minimalizacji kosztów i braku kosztownych migracji. Klient korzystający z aplikacji Veritas NetBackup może skorzystać z urządzeń Veritas Appliance 5240/5340 czy Veritas Access 3340, ale co ważniejsze, ma pełną swobodę wyboru technologii przechowywania danych innych producentów, co w ujęciu długoterminowym obniża łączne koszty wdrożenia i posiadania rozwiązań do ochrony danych. Aby to było możliwe Veritas adresuje pojawiające się wyzwania technologiczne, zapewnia adaptację chmury publicznej, chroni nowoczesne środowiska oparte o konteneryzację oraz bazy danych i aplikacje OpenSource.

Pomagamy chronić dane i podejmować świadome decyzje zmierzające do optymalizacji kosztów backupu

Chmura publiczna ma kluczowy wpływ na rozwój produktów Veritas. W najprostszym przykładzie chmura publiczna może być medium długoterminowego składowania kopii zapasowej. Jednak, aby miało to sens kosztowy i biznesowy niezbędna jest aplikacja, która przed wysłaniem do chmury, deduplikuje i szyfruje dane tak, aby zminimalizować koszty ich składowania. Taką rolę pełni nasz system Veritas Cloud Catalyst.
Leonid Venglinski, Inżynier Systemów w Veritas Technologies LLC

W Polsce, podobnie jak na całym świecie, systematycznie wzrasta zainteresowanie usługami opartymi na modelu publicznej chmury obliczeniowej. W jaki sposób takie trendy wpływają na rozwój narzędzi Veritas w obszarze tworzenia oraz przywracania kopii zapasowych?

L.V.: Pilnie obserwujemy ruchy gigantów, bo chmura publiczna ma kluczowy wpływ na rozwój produktów Veritas. W najprostszym przykładzie chmura publiczna może być medium długoterminowego składowania kopii zapasowej. Jednak, aby miało to sens kosztowy i biznesowy niezbędna jest aplikacja, która przed wysłaniem do chmury, deduplikuje i szyfruje dane tak, aby zminimalizować koszty ich składowania. Taką rolę pełni nasz system Veritas Cloud Catalyst. Lokalny cache pozwala obniżyć koszt odczytu danych z chmury, a w razie katastrofy w lokalizacji głównej można od razu przystąpić do odtwarzania w chmurze, gdyż są tam zarówno kopie zapasowe jak i meta-dane potrzebne do ich odtworzenia. Teraz inny przykład – zdarza się, że trzeba przełączyć własne Data Center na chmurę publiczną. Mamy do tego narzędzie Veritas Resiliency Platform, które pozwala na budowę i realizację scenariusza takiego przełączenia wraz z rekonfiguracją sieci i integracją z systemem backupu.

Przeczytaj również
Konferencja Microsoft Build 2022 rusza już za 5 dni!

W jaki sposób rozwiązania Veritas wspierają środowiska, dla których chmura publiczna nie pełni jedynie roli zapasowego centrum danych, ale jest fundamentem całej infrastruktury IT?

L.V.: Pamiętajmy o tym, że niezależnie od technologii, sprzętu, wybranych rozwiązań etc. najważniejsza jest świadomość, że za ochronę danych odpowiada klient, a nie dostawca infrastruktury publicznej. Każda infrastruktura wymaga ochrony. Możliwości i dostępnych technologii jest kilka. W chmurze możemy uruchomić tradycyjny serwer backupu oparty o Veritas NetBackup, lub skorzystać z Veritas CloudPoint, który zapewnia zarządzanie migawkami i odtwarzaniem w środowiskach multi-cloud. Natomiast do ochrony Microsoft Office 365 proponujemy Veritas SaaS Backup.

Pomagamy chronić dane i podejmować świadome decyzje zmierzające do optymalizacji kosztów backupu

Advatech jest partnerem Veritas od wielu lat i przez ten czas widzimy ogromne korzyści płynące z otwartości Veritas na technologie sprzętowe wielu producentów. Mamy dużych klientów, u których wdrożenie systemu Veritas NetBackup odbyło się 12-15 lat temu i system ten działa do dzisiaj, choć infrastruktura się zmieniała, pojawiały się urządzenia dyskowe z deduplikacją, a teraz postępuje stopniowa eliminacja taśm na korzyść urządzeń obiektowych.
Konrad Puchała, Kierowniki Działu Składowania i Ochrony Danych w firmie Advatech

Jaka jest rola firmy Advatech jako partnera Veritas w Polsce?

Konrad Puchała (K.P.): Szybko rosnąca ilość danych podlegających ochronie powoduje, iż często z naszymi klientami rozmawiamy o kosztach wymaganych modernizacji, wymiany infrastruktury oraz utrzymania systemu w kolejnych latach. Jest to naprawdę duże wyzwanie, wymagające sporej wiedzy i doświadczenia. Jeśli zauważymy, że każdy 1 TB danych źródłowych wytwarza 10 – 20 TB danych w systemie backupu, to widać, że rozmawiamy o sporych pieniądzach.
Advatech jest partnerem Veritas od wielu lat i przez ten czas widzimy ogromne korzyści płynące z otwartości Veritas na technologie sprzętowe wielu producentów. Mamy dużych klientów, u których wdrożenie systemu Veritas NetBackup odbyło się 12-15 lat temu i system ten działa do dzisiaj, choć infrastruktura się zmieniała, pojawiały się urządzenia dyskowe z deduplikacją, a teraz postępuje stopniowa eliminacja taśm na korzyść urządzeń obiektowych zoptymalizowanych do długoterminowego przechowywania danych.

Przeczytaj również
Jak giełdy kryptowalut zwalczają cyberprzestępców?

Dlaczego urządzenia obiektowe wypierają nośniki taśmowe, które przecież zapewniają najniższe koszty składowania danych?

K.P.: Jeżeli spojrzymy kompleksowo na backup i archiwizację, to dostrzeżemy, że w wielu przypadkach taśmy wcale nie są najtańszym nośnikiem. Systemy backupu są często przeładowane danymi składowanymi na wiele lat, a pamiętajmy, że głównym celem systemu kopii zapasowych jest odtwarzanie danych po awarii z najświeższej możliwej kopii. Wielu klientów systemy backupu traktuje jako archiwum, gdyż tak jest najprościej, a dane archiwalne zwykle trafiają na taśmę. Jednak, gdy do kosztu archiwum na taśmach doliczyć licencje systemu backupu, napędy, pozostałą część infrastruktury i długi czas dostępu do danych, trudniejszą ochronę DR, to w wielu obszarach korzystniej jest zastosować dyskowe urządzenia obiektowe.

Mamy przykłady z naszej krajowej praktyki – w jednym z banków uruchomiliśmy urządzenia Veritas Access 3340, które dzięki wbudowanej deduplikacji i optymalizacji replikacji danych łączą niski koszt składowania, bardzo wysoką pojemność z krótkim czas dostępu do danych. Dostępne interfejsy obiektowe pozwalają na bezpośrednią integrację z aplikacją wymagającą archiwizacji, bez pośrednictwa i kosztów systemu backupu. Bazy danych i aplikacje można archiwizować bezpośrednio na Veritas Access z użyciem protokołów obiektowych S3 czy REST API lub plikowo, przy użyciu CIFS lub NFS. Do archiwizacji poczty i serwerów plików proponujemy Veritas EnterpriseVault zintegrowanego z Veritas Access. Do takiego właśnie podejścia zachęcamy naszych klientów.

W jaki sposób efektywnie wybierać dane biznesowe, które powinny zostać poddane archiwizacji? Na jakiej podstawie podejmować decyzje dotyczące wyboru nośnika i sposobu przechowywania takich danych, aby zoptymalizować koszty?

K.P.: Jest to jedno z trudniejszych wyzwań. Praktyka pokazuje, że zawsze spora cześć danych jest nierozpoznana, nie ma właściciela, nie ma związku z prowadzoną działalnością, teoretycznie można je usunąć, ale brakuje skutecznej metody ich wskazania. Ten obszar dark data może stanowić około 50% wszystkich danych. W takich wyzwaniach pomocne są rozwiązania Veritas Information Studio oraz Veritas Aptare. Pierwszy z nich pomaga w analizie zawartości danych, klasyfikacji, identyfikacji danych osobowych, rozpoznaniu profili ich wykorzystania, określeniu właściciela lub jego braku. Z kolei Aptare to rozbudowana analityka infrastruktury IT, wbudowane mechanizmy AI, wskazuje obszary, gdzie występuje ryzyko utraty danych lub gdzie można dokonać optymalizacji wydajności i zasobów. Pozwala to uzyskać przekrojowy obraz danych i infrastruktury całej organizacji. Na tej podstawie możemy już podejmować świadome i skuteczne decyzje zmierzające do optymalizacji i zmniejszenia kosztów utrzymania infrastruktury IT.

Przeczytaj również
HPE zapowiada rozwiązania i usługi wspierające wykorzystanie infrastruktury GAIA-X
Tagi

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *