BiznesInfrastrukturaPREZENTACJA PARTNERA
Inwestycja w macierze dyskowe IBM pozwala sprostać wymaganiom NIS2
Executive ViewPoint
Z Piotrem Sękowskim, dyrektorem sprzedaży rozwiązań pamięci masowych w IBM Polska oraz Andrzejem Gładyszem, wiceprezesem zarządu firmy Averbit rozmawiamy o wdrożeniach storage w Polsce, wpływie projektów AI na potrzeby pamięci masowych, aktualnych wyzwaniach w zakresie bezpieczeństwa danych oraz roli nowoczesnych macierzy w zapewnianiu dostępności danych i ochrony informacji, a także o innowacjach w obszarze składowania danych oraz pozycji IBM w tym segmencie rynku.
Jesteśmy w momencie przełomu, gdzie potrzeby IT w największym stopniu wynikają z organicznego rozwoju działalności lub nowych projektów biznesowych – także tych związanych ze sztuczną inteligencją. Coraz częściej są to inicjatywy zakładające wykorzystanie własnych modeli AI, uruchamianych na lokalnej, w pełni kontrolowanej infrastrukturze. Faktycznie realizujemy wiele pilotaży i testów środowisk AI w modelu on-premise, co zapowiada przyszłe, większe projekty transformacyjne oparte na lokalnych wdrożeniach sztucznej inteligencji – Piotr Sękowski, dyrektor sprzedaży rozwiązań pamięci masowych w IBM Polska.
W jakim stopniu projekty AI kształtują dziś potrzeby polskich firm w zakresie pamięci masowych? Nie ma przecież sztucznej inteligencji bez szybkiego dostępu do danych…
Andrzej Gładysz (A.G.): Zainteresowanie rozwiązaniami AI w oczywisty sposób rośnie, ale nie stanowi jeszcze głównego czynnika napędzającego sprzedaż pamięci masowych. Na polskim rynku zakupy rozwiązań typu storage podyktowane są przede wszystkim rosnącymi potrzebami, a więc rozwojem przedsiębiorstw. Większość projektów koncentruje się wokół rozbudowy pojemności macierzy blokowych.
Widać jednak, że coraz większe grono klientów zastanawia się w jaki sposób zaprząc posiadane dane do zastosowań opartych na AI, choćby tych najprostszych. To oznacza m.in. potrzebę wykorzystania szybkich i pojemnych macierzy. Pojawiają się również projekty wymagające zastosowania pamięci masowych zoptymalizowanych pod kątem obsługi danych nieustrukturyzowanych, przykładowo, zdjęć i skanów.
Jednocześnie większość polskich organizacji dopiero zaczyna wdrażać sztuczną inteligencję – eksperymentuje lub realizuje pilotaże, głównie w oparciu o podstawowe usługi chmurowe. Część większych instytucji, takich jak spółki Skarbu Państwa, banki czy firmy energetyczne ma ten etap już za sobą. W przypadku mniejszych organizacji jest to kierunek nieunikniony.
Coraz częściej jednak pojawiają się zapytania dotyczące lokalnego uruchomienia całego stosu technologii niezbędnych do wykorzystania sztucznej inteligencji – niezależnie od publicznej chmury obliczeniowej. IBM ma bardzo dobrą propozycję w tym zakresie.
Piotr Sękowski (P.S.): Jesteśmy w momencie przełomu, gdzie potrzeby IT w największym stopniu wynikają z organicznego rozwoju działalności lub nowych projektów biznesowych – także tych związanych ze sztuczną inteligencją. Coraz częściej są to jednak inicjatywy zakładające wykorzystanie własnych modeli AI, uruchamianych na lokalnej, w pełni kontrolowanej infrastrukturze. Faktycznie realizujemy wiele pilotaży i testów środowisk AI w modelu on-premise, co zapowiada przyszłe, większe projekty transformacyjne oparte na lokalnych wdrożeniach sztucznej inteligencji.
A.G.: Klienci jasno deklarują otwartość na wdrożenie rozwiązań wykorzystujących duże modele językowe, ale zapędy te hamuje konieczność przekazania własnych, cennych i potencjalnie wrażliwych danych do środowisk chmurowych, gdzie funkcje AI są najłatwiej dostępne. Udostępnienie takich danych na zewnątrz, gdzie potencjalnie zostaną wykorzystane do trenowania i rozwoju modeli AI lub – co gorsza – będą dostępne dla innych organizacji, jest dla wielu firm po prostu nieakceptowalne.
Jakie wyzwania w obszarze bezpieczeństwa czy dostępności danych są typowe dla dzisiejszych projektów AI?
A.G.: Coraz poważniejszym problemem jest zjawisko Shadow AI. W wielu firmach pracownicy w niefrasobliwy sposób wspierają się ogólnodostępnymi rozwiązaniami generatywnej sztucznej inteligencji, udostępniając im wrażliwe dane. Wbrew pozorom nie są to problemy banalne. Z jednej strony, użytkownikom brak jest świadomości ryzyk związanych z wykorzystaniem AI, a z drugiej – narzędzi gwarantujących bezpieczeństwo danych. Kluczowe jest zachowanie pełnej kontroli nad całym procesem przetwarzania danych, co jest realne wyłącznie w lokalnych środowiskach AI. Tylko takie podejście zapewnia również możliwość precyzyjnego prześledzenia sposobu działania sztucznej inteligencji i w razie potrzeby cofnięcia się do konkretnej wersji modelu – co może być potencjalnie wymagane przez regulatorów.
P.S.: Problematyka Shadow AI to także kwestia wykorzystania nieautoryzowanych, czyli niepewnych i nieprzetestowanych modeli sztucznej inteligencji, w realnych scenariuszach biznesowych. W tym kontekście, wykorzystanie całego stosu technologii AI w modelu on-premise pozwala nie tylko ograniczyć do minimum ryzyko wycieku wrażliwych danych, ale także zapewnić, że decyzje będą podejmowane, a procesy automatyzowane w oparciu o przewidywalne, efektywne i bezpieczne modele sztucznej inteligencji. Bezpieczne, także w kontekście pełnej kontroli nad przepływami danych.
Jest to kolejny aspekt, na który dotąd tylko nieliczni zwracali uwagę. IBM zapewnia tu dość unikalne wsparcie. Oferujemy m.in. usługi kompleksowej analizy i certyfikacji modeli AI pod kątem bezpieczeństwa. Oznacza to, że każda organizacja może zgłosić się do nas ze swoim modelem sztucznej inteligencji, a my zweryfikujemy i przetestujemy jego działanie pod kątem bezpieczeństwa danych. Tego rodzaju usługi świadczy m.in. nasze krakowskie centrum kompetencyjne.
Osobnym wyzwaniem jest przygotowanie infrastruktury IT na zagrożenia związane z bezpieczeństwem postkwantowego. Komputery kwantowe stają się coraz bardziej dostępne, a cyberprzestępcy coraz częściej kradną dane z myślą o wykorzystaniu ich w przyszłości. Faktem jest, że wiele skradzionych zbiorów danych zaszyfrowano na tyle skutecznie, że próby ich odkodowania przy użyciu tradycyjnych komputerów są dziś mało opłacalne. Z czasem pojawią się jednak rozwiązania, które pozwolą złamać tego typu zabezpieczenia, a pewne dane – np. w instytucjach publicznych, służbie zdrowia czy bankowości – nie stracą na wartości przez lata. Dlatego tak istotne jest zapobieganie wyciekom danych, niezależnie od zastosowanych algorytmów szyfrowania.
W realnych scenariuszach biznesowych bardzo często możemy wykazać, że rozwiązania IBM są tańsze w użytkowaniu od systemów konkurencji. Jest to m.in. pochodna bogatej funkcjonalności. W kontekście pamięci masowych wystarczy wspomnieć o wbudowanych mechanizmach analizy danych, poprawy ich bezpieczeństwa, ochrony dostępu czy kompresji. Wykorzystanie tego rodzaju funkcji pozwala znacząco zmniejszyć całkowity koszt realizacji projektu. Dotyczy to także innych linii produktowych IBM – Andrzej Gładysz, wiceprezes zarządu firmy Averbit.
Jakie zatem znaczenie w kontekście inwestycji w obszarze storage mają kwestie bezpieczeństwa?
P.S.: Ogromny! Choć może to nie wydawać się takie oczywiste. Jak wynika z opracowanego przez zespół IBM X-Force raportu „Threat Intelligence Index 2025”, rok do roku liczba ataków przy użyciu złośliwego oprogramowania wykradającego dane logowania – tzw. infostealerów – wzrosła o 84%. W porównaniu z 2023 rokiem oznacza to ogromny przyrost co pokazuje, że cyberprzestępcy coraz częściej wykorzystują phishing jako metodę dystrybucji złośliwego oprogramowania, które kradnie dane dostępowe do rozmaitych systemów lub aplikacji. Same ataki phishingowe z użyciem infostealerów stają się z kolei coraz bardziej powszechne i trudniejsze do wykrycia. Według raportu „2025 Global Threat Landscape Report” firmy Fortinet, zaobserwowano 500% wzrost liczby logów z przejętych systemów, co przekłada się na ponad 1,7 miliarda skradzionych danych uwierzytelniających dostępnych w darknecie. To przyczyniło się do 42% wzrostu ataków ukierunkowanych na podstawie danych uwierzytelniających.
Dlaczego to takie istotne? Skradzione dane dostępowe mogą bowiem zostać wykorzystane do włamania do firmowej infrastruktury IT i przeprowadzenia bardziej złożonych ataków. Oba wspomniane wcześniej raporty zwracają uwagę na duży wzrost skali tego typu zagrożeń oraz ich skuteczności. Poza tym, cyberprzestępcy coraz częściej wykorzystują rozwiązania AI, żeby podnieść skuteczność ataków. Gdy zawiedzie czynnik ludzki – użytkownik kliknie w fałszywy link i podaje swoje dane uwierzytelniające – konieczne stają się dodatkowe mechanizmy ochrony danych, najcenniejszego zasoby wielu firm i instytucji.
Jak pokazują analizy, wzrost skali kradzieży danych dostępowych przekłada się wprost na zwiększenie skuteczności innych rodzajów ataków – w tym ransomware – nawet o 30-40%. Skuteczny atak tego typu skutkuje z kolei zaszyfrowaniem danych. Tu pojawia się kluczowa rola pamięci masowych. W odpowiedzi na rosnące zagrożenia w obszarze cyberbezpieczeństwa, IBM wprowadza do swych rozwiązań storage dodatkowe zabezpieczenia.
Jakimi funkcjami bezpieczeństwa dysponują rozwiązania IBM Storage?
P.S.: Po pierwsze, wyposażamy pamięci masowe IBM w bezpieczne mechanizmy uwierzytelniające po to, aby utrudnić cyberprzestępcom ewentualne wykorzystanie skradzionych danych dostępowych. Po drugie, wprowadzamy dodatkowe mechanizmy bezpieczeństwa oparte na analizie wzorców operacji na danych i działające bezpośrednio na poziomie dysków w macierzy dyskowych. Ich istotą jest wykrywanie podejrzanych operacji oraz ruchu danych typowego dla działania ransomware, a następnie zaalarmowanie administratora, aby mógł szybko i właściwie zareagować.
System alarmowy wbudowany w warstwę storage to faktycznie ciekawa innowacja…
P.S.: Jest to rozwiązanie unikalne, a co najważniejsze bardzo skuteczne, choć nie opiera się na pełnej automatyzacji – może bowiem okazać się, że zmiana wzorca operacji na danych wynika z planowanych operacji utrzymaniowych lub zmian w warstwie aplikacji. Dlatego dajemy administratorom dodatkowe narzędzie, które pozwala sprawnie wykryć i zareagować w sytuacji, jeśli okaże się, że to faktycznie atak ransomware.
Możliwości wbudowane w pamięci masowe IBM uzupełniają dodatkowo usługi IBM Storage Insights oraz IBM Storage Defender. Pierwsza z nich stanowi kompleksowe narzędzie do scentralizowanego monitorowania, powiadamiania o incydentach i analizy kluczowych parametrów technicznych macierzy IBM w czasie rzeczywistym. Dodatkowo, IBM Storage Insights zapewnia oparte na AI rekomendacje potencjalnych optymalizacji czy zmian parametrów, które pozwolą na poprawę działania środowiska danych. W wersji PRO powala też na analizę podstawowych parametrów działania rozwiązań innych producentów.
Z kolei IBM Storage Defender to zestaw rozwiązań wspierających zarządzanie działaniami w obszarze backupu, archiwizacji danych oraz analizy ich czystości – a więc wykrywania potencjalnych zagrożeń w danych archiwalnych oraz kopiach zapasowych. Jednym z elementów pakietu IBM Storage Defender są wymienione wcześniej funkcje analizy wzorców operacji na danych pod kątem wykrywania ataków przy użyciu ransomware. Stawiamy w tym obszarze na innowacyjne, proaktywne podejście do ochrony danych.
Wyposażamy pamięci masowe IBM w bezpieczne mechanizmy uwierzytelniające po to, aby utrudnić cyberprzestępcom ewentualne wykorzystanie skradzionych danych dostępowych. Po drugie, wprowadzamy dodatkowe mechanizmy bezpieczeństwa oparte na analizie wzorców operacji na danych i działające bezpośrednio na poziomie dysków w macierzy dyskowych. Ich istotą jest wykrywanie podejrzanych operacji oraz ruchu danych typowego dla działania ransomware, a następnie zaalarmowanie administratora, aby mógł szybko i właściwie zareagować – Piotr Sękowski, dyrektor sprzedaży rozwiązań pamięci masowych w IBM Polska.
W jakim stopniu do projektów AI można wykorzystać pamięci masowe starszych generacji?
P.S.: Posłużę się analogią: to jak próba ścigania się najnowszym bolidem Formuły 1 na zużytych, zeszłorocznych oponach – może w ogóle nie ruszymy, nie mówiąc już o szybkiej jeździe i bezpiecznym przejechaniu choćby jednego okrążenia. Podobnie, nowoczesna infrastruktura przetwarzania danych i superwydajne procesory GPU nie powinny współpracować z macierzami dyskowymi sprzed kilku lat. Może uda się uruchomić na takiej platformie pewne obciążenia typowe dla AI, ale trudno oczekiwać wysokiej wydajności. Aby w pełni wykorzystać potencjał AI, przy zachowaniu pełnej kontroli nad modelami sztucznej inteligencji oraz danymi, potrzeba kompleksowego podejścia – warstwa pamięci masowych nie może odstawać od możliwości procesorów.
Jako IBM możemy tu zaoferować szereg rozwiązań. Jednym z nich jest IBM Fusion. To kompleksowe, zoptymalizowane pod kątem AI i oferowane w formie predefiniowanego rozwiązania, środowisko chmury prywatnej, wyposażone w wydajne pamięci masowe i procesory GPU, a także stos technologii oparty na platformie OpenShift. IBM Fusion w przystępnej formie zapewnia wszystkie elementy niezbędne do uruchomienia modeli AI w lokalnym środowisku. Razem z wbudowanymi mechanizmami bezpieczeństwa, optymalizacjami pod kątem wydajności, aż po ułatwienia administracyjne bez konieczności wprowadzania dodatkowych parametryzacji.
Alternatywnie proponujemy platformę IBM Storage Scale System. Jest to rozwiązanie, które wedle ogólnodostępnych testów jest zdecydowanie najbardziej wydajną platformą typu storage dla serwerów NVIDIA. Dodatkowo IBM Storage Scale System, wykorzystuje wspomniane mechanizmy pozwalające wykryć ewentualne ataki ransomware. Zapewnia zatem nie tylko niezrównaną wydajność, ale również bezpieczeństwo.
W kontekście dużych, typowych dla AI zbiorów danych, wskazałbym też na rozwój pamięci opartych na nośnikach taśmowych. Biblioteki taśmowe zapewniają najwyższy poziom bezpieczeństwa i najniższy koszt składowania danych. Stworzyliśmy mechanizmy pozwalające na korzystanie z nośników taśmowych w sposób rozszerzający zasoby produkcyjne oparte o dyski. Środowiska archiwalne oparte o biblioteki taśmowe mogą stanowić płynne rozszerzenie środowisk produkcyjnych i zapewnić bardzo duży, tani zasób. Takie wdrożenia realizujemy m.in. w szpitalach czy na uczelniach.
W wielu firmach pracownicy w niefrasobliwy sposób wspierają się ogólnodostępnymi rozwiązaniami generatywnej sztucznej inteligencji, udostępniając im wrażliwe dane. Kluczowe jest zachowanie pełnej kontroli nad całym procesem przetwarzania danych, co jest realne wyłącznie w lokalnych środowiskach AI. Tylko takie podejście zapewnia również możliwość precyzyjnego prześledzenia sposobu działania sztucznej inteligencji i w razie potrzeby cofnięcia się do konkretnej wersji modelu – co może być potencjalnie wymagane przez regulatorów – Andrzej Gładysz, wiceprezes zarządu firmy Averbit
Według analityków rynku, IBM zanotował w 2024 roku znaczące wzrosty na rynku pamięci masowych i dziś kontroluje znaczącą część polskiego rynku, choć większość rywali głównie notuje spadki…
P.S.: To prawda. Z szacunków wynika, że co czwarty terabajt pamięci masowych dostarczonych do polskich firm i instytucji w ubiegłym roku bazował na rozwiązaniach IBM. Taka skala wykorzystania technologii IBM oznacza zarazem, że nie ograniczamy się do konkretnej branży czy wielkości organizacji. Jeśli jednak miałbym wskazać sektor, który w 2024 roku w szczególnym stopniu inwestował w nasze rozwiązania do składowania danych, to wymieniłbym ochronę zdrowia. Od kilku lat uczestniczymy w największych projektach mających na celu zapewnienie bezpiecznego i wydajnego fundamentu do przechowywania danych medycznych. Myślę, że kluczowe znaczenie ma tu właśnie kwestia bezpieczeństwa.
Wybierając rozwiązania IBM Storage klienci zyskują macierze w autonomiczny sposób wykrywające ataki ransomware, zapewniające rozbudowane funkcje szyfrowania, ale też backupu i przywracania bezpiecznych kopii danych. Dodatkowo, nasze rozwiązania pamięci masowych w natywny sposób wspierają wieloskładnikowe uwierzytelnianie uprzywilejowanych użytkowników, a także – obsługują replikację danych w wielu lokalizacjach. Wszystkie te aspekty dobrze wpisują się m.in. w wymagania dyrektywy NIS2. Oznacza to, że relatywnie niedroga inwestycja w zakup macierzy dyskowych IBM pozwala zaadresować szereg wymagań w zakresie wielopoziomowego podejścia do bezpieczeństwa danych.
A.G.: Znaczący udział branży ochrony zdrowia w sprzedaży rozwiązań IBM Storage potwierdzają także nasze wyniki za 2024 roku. Pod względem zrealizowanych projektów, sektor medyczny ustępował jedynie finansom i energetyce – obszarom, w którym bezpieczeństwo danych ma ogromne znaczenie, ze względu na skalę i wagę prowadzonej działalności.
Jakie aspekty wpływają na silną pozycję IBM w segmencie pamięci masowych na rynku polskim? Czy to kwestia funkcjonalności, oferty, a może strategii?
A.G.: Myślę, że wszystkie te kwestie wpływają na wzmocnienie pozycji IBM. Co równie istotne, ostatnie lata przyniosły zmianę w postrzeganiu tej marki. Jej rozwiązania nie są też oceniane wyłącznie przez pryzmat ceny. Co więcej, praktyka pokazuje, że IBM oferuje systemy mocno konkurencyjne cenowo. W realnych scenariuszach biznesowych bardzo często możemy wykazać, że rozwiązania IBM są tańsze w użytkowaniu od systemów konkurencji. Jest to m.in. pochodna bogatej funkcjonalności. W kontekście pamięci masowych wystarczy wspomnieć o wbudowanych mechanizmach analizy danych, poprawy ich bezpieczeństwa, ochrony dostępu czy kompresji. Wykorzystanie tego rodzaju funkcji pozwala znacząco zmniejszyć całkowity koszt realizacji projektu. Dotyczy to także innych linii produktowych IBM.
P.S.: Faktem jest, że dzisiejsze rozwiązania macierzowe muszą być szybkie i nadążać za potrzebami w zakresie wykorzystania danych. To oczywiste i naturalne. Podobnie jak fakt, że wszyscy wiodący producenci pamięci masowych realizują te cele w oparciu o podobne rozwiązania technologiczne. O przewadze konkretnych rozwiązań coraz częściej decydują zatem dodatkowe funkcje i specyficzne cechy, jak wysoka wydajność oraz gęstość danych. W obu tych obszarach IBM ma zdecydowaną przewagę nad konkurencją. Jak już wspomniał Andrzej, rozwiązania IBM Storage zapewniają wartość dodaną dzięki zaawansowanym funkcjom. Dodam, że wyróżnia je także wysoki stopień upakowania danych, co pozwala przechowywać dużą ilość informacji na ograniczonej powierzchni centrum danych, przy zachowaniu wysokiej wydajności i efektywności energetycznej. Mówimy o możliwości serwowania 1PB danych w obudowie 1U przy zachowaniu wysokich parametrów wydajności i niskim zużyciu prądu.
A.G.: Co ciekawe, przy wysokich kosztach energii kilka lat temu, oszczędności na zasilaniu macierzy IBM w całym cyklu ich życia potrafiły sfinansować jedną trzecią kosztu zakupu infrastruktury – w porównaniu z rozwiązaniami innych producentów.
P.S.: Poza tym, rozwiązania IBM Storage wyróżniają się też łatwością użytkowania, mają prosty i przejrzysty interfejs obsługi, który pozwala na obsługę macierzy nawet użytkownikom nieposiadającym zaawansowanych kompetencji.