Rynek

Veracomp Backup Forum: ewolucja w ochronie danych

Przez wiele lat kopia bezpieczeństwa była codziennie wykonywanym procesem zapisu danych, które można będzie – ewentualnie w przyszłości – odtworzyć. Podejście do backupu ewoluowało. Dziś traktuje się go jako część procesów związanych z zapewnieniem ciągłości działania przedsiębiorstwa. Razem ze zmianą podejścia do backupu, zmieniało się także medium zapisu kopii zapasowych oraz używane oprogramowanie.

Veracomp Backup Forum: ewolucja w ochronie danych

Temu, jak zmieniają się zagadnienia związane z backupem danych były tematem konferencji Backup Forum organizowanej przez Veracomp i partnerów tej firmy. Obecnie zamiast statycznych planów backupowych i rozważań na temat okna wykonywania kopii bezpieczeństwa coraz częściej rozważa się strategię ochrony określaną przez dwa parametry – RTO (Recovery Time Objective) i RPO (Recovery Point Objective). Oba z nich określają zdolność przywrócenia usługi widzianej od strony biznesu. Oba parametry określają czas odtworzenia danych i uruchomienia serwerów oraz całej potrzebnej infrastruktury, ale charakteryzują to w różny sposób.

RTO i RPO dla usług biznesowych

Dla każdej usługi można określić czas niedostępności, powyżej którego pojawią się określone straty. Jeśli dział IT będzie dysponował narzędziami, które umożliwią przywrócenie funkcjonalności usługi przed tym momentem, można zminimalizować straty przedsiębiorstwa. Czas przywracania, który należy osiągnąć, określa się terminem RTO.

Awaria techniczna lub inna przerwa w pracy może wiązać się także z utratą danych. Parametrem, który to określa jest RPO. Należy go określić dla każdej z usług. Niekiedy utrata danych spowodowana przerwą w pracy lub awarią nie jest niczym złym, np. przy mało krytycznych usługach. Wówczas parametr ten jest wyższy.

W przypadku krytycznych usług strata nawet minimalnej ilości danych jest jednak niedopuszczalna. Jeśli do tego doda się konieczność bardzo szybkiego odtworzenia funkcjonalności usługi biznesowej widać, że budowanie strategii backupu wiąże się nierozerwalnie z analizą wpływu biznesowego i opracowywaniem planu ciągłości działania.

Nowe media zapisu i dostępu do archiwizowanych danych

Początkowo kopie wszystkich plików i baz danych przenoszono wyłącznie na taśmę. Jest to bardzo pojemne i tanie medium, które udowodniło w praktyce trwałość przez dekady. Taśma ma jednak wady, które wprost wynikają z używanej technologii. Podstawowe ograniczenie dotyczy czasu dostępu do wybranych porcji informacji. Aby odtworzyć pojedyncze obiekty, taśma musi być wielokrotnie przewijana, co bardzo wydłuża czas potrzebny na wykonanie zadania.

Dopóki podstawowym zadaniem backupu było odtwarzanie kompletnego środowiska IT na wypadek poważnej awarii lub innego zdarzenia losowego, taśma z powodzeniem mogła spełnić wymagania planów awaryjnych. Razem ze zmianą podejścia do kopii bezpieczeństwa, ciężar przeniósł się z odtwarzania kompletnego środowiska na szybkie odtwarzanie wybranych obiektów. Do tego celu o wiele lepsze są dyski. Charakteryzujące się one – w porównaniu do taśm – dużo krótszym czasem losowego dostępu do informacji.

Jak zapisać mniej danych

Dziś podstawowym medium backupu są zasoby dyskowe, ale długoterminowy zapis nadal wykonuje się na taśmach. Trend ten bardzo wyraźnie widać także w konstrukcji nowoczesnego oprogramowania. Narzędzia projektowane pod kątem backupu środowisk zwirtualizowanych posiadają również możliwość zapisu kopii na taśmę.

Rozwój środowisk zwirtualizowanych przyniósł znaczący rozrost ilości zapisywanej informacji. Razem z kolejnymi maszynami, w centrum przetwarzania danych magazynuje się i przetwarza coraz więcej informacji. Pewna część plików i bloków powtarza się między różnymi maszynami. Naturalnym rozwiązaniem okazała się zatem deduplikacja.

Wprowadzenie technologii deduplikacji umożliwiło istotne zmniejszenie zapotrzebowania na przestrzeń składowania danych. Obecnie deduplikacja jest standardową opcją nowoczesnej kopii bezpieczeństwa, dzięki czemu backup środowiska zwirtualizowanego zajmuje znacznie mniej miejsca. Deduplikacja może obejmować różne platformy serwerowe i zredukować ilość danych także przy backupie całego środowiska.

Testy i ochrona informacji, także w tranzycie

Przy wykonywaniu kopii nie można pominąć regularnego testowania. Należy cyklicznie wykonywać ćwiczenia praktyczne, polegające na testowym odtworzeniu wybranego elementu infrastruktury. Co pewien czas (choćby raz w roku), dział IT powinien przetestować działanie całej procedury, sprawdzając nie tylko fakt poprawnego odtworzenia danych, ale także rzeczywiste parametry RTO i RPO. Wnioski z każdego ćwiczenia usprawnią procedurę Disaster Recovery. Dzięki temu będzie ona lepiej dostosowana do potrzeb firmy.

Gdy firma inwestuje w budowę ośrodków zapasowych, musi wziąć pod uwagę także bezpieczeństwo transmisji danych. Wykonywanie kopii bezpieczeństwa charakteryzuje się bardzo dużą ilością danych w tranzycie. Praktycznie wszystkie zmiany od ostatniej kopii muszą być przesłane do zdalnego ośrodka. Należy to uczynić w bezpieczny sposób, a jedną z możliwości jest transmisja danych w wydzielonym tunelu wirtualnych sieci prywatnych VPN wewnątrz szyfrowanego połączenia.

Tagi

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *