CyberbezpieczeństwoSztuczna inteligencja

Korzystanie z DeepSeek to zagrożenie dla firmowych danych

DeepSeek miał podbić świat i zrewolucjonizować podejście do trenowania modeli językowych. Jego twórcy deklarowali, że jest tani i może uczyć się szybciej niż najlepsze dostępne na rynku rozwiązania. Specjaliści z Palo Alto Networks odkryli jednak, że za tą fasadą kryje się oprogramowanie zawierające krytyczne luki bezpieczeństwa. Mogą one prowadzić nie tylko do wycieków danych użytkowników, ale również do wzrostu cyberprzestępczości.

Korzystanie z DeepSeek to zagrożenie dla firmowych danych

Technologiczny świat zachwiał się w posadach, kiedy chińska spółka zadeklarowała, że model językowy można wytrenować nie tylko szybko, ale również tanio. W ten sposób DeepSeek przyczynił się do największej w historii wyprzedaży akcji spółek technologicznych na amerykańskiej giełdzie.

Jednak po fali euforii okraszonej paniką inwestorów przyszedł czas na dokładniejsze analizy. Jednostka badawcza Unit 42 Palo Alto Networks wykryła, że chiński model posiada poważne luki w zabezpieczeniach i może być niebezpieczny dla korzystających z niego firm.

Podatność na tzw. jailbreak

Jak wynika z badań specjalistów, chiński model AI ma poważne luki w zabezpieczeniach i jest szczególnie podatny na tzw. jailbreak. Cyberprzestępcy coraz częściej wykorzystują tę metodę, by oszukać generatywną AI i zmusić ją do tworzenia nielegalnych treści. Dla porównania dobrze zabezpieczony czatbot natychmiast odrzuci próbę uzyskania informacji o budowie ładunku wybuchowego, co jest kluczowym mechanizmem przeciwdziałania zagrożeniom terrorystycznym. Niestety, model DeepSeek może być bezbronny wobec takich prób. Testy wykazały, że potrafi on dostarczać szczegółowych instrukcji dotyczących tworzenia złośliwego oprogramowania do kradzieży haseł i danych, a nawet wyjaśniać, jak skonstruować urządzenia zapalające. Te luki to nie tylko techniczne niedociągnięcia – to furtka dla potencjalnych tragedii.

„Cyberprzestępcy otrzymują w ten sposób nowe narzędzia, które mogą ich wspierać w prowadzeniu szeroko zakrojonych cyberataków na przedsiębiorstwa i instytucje publiczne. Przypadek DeepSeek i podatności na jailbreak pokazuje, że nadal w domowych warunkach można nakłonić model językowy do tworzenia złośliwego oprogramowania. Doświadczeni cyberprzestępcy mogą wykorzystać takie narzędzia na znacznie szerszą skalę. W miarę jak LLM stają się coraz bardziej zintegrowane z różnymi aplikacjami, skuteczne zabezpieczanie ich przed niewłaściwym wykorzystaniem jest niezbędne dla rozwoju i wdrażania AI w biznesie bez szkody dla użytkowników i klientów” – skomentował Grzegorz Latosiński, dyrektor krajowy Palo Alto Networks w Polsce.

Rewolucja, która wymaga ostrożności i odpowiedzialności

W związku z dużym zapotrzebowaniem na niedrogie rozwiązania, DeepSeek nie jest ostatnim modelem, który zaskoczy świat. Minie trochę czasu, zanim technologie AI zostaną w pełni zrozumiane i wyłonią się wyraźni liderzy. Zanim to nastąpi, należy bardzo skrupulatnie podchodzić do wszelkich nowości na tym rynku, przestrzegają specjaliści. Tym bardziej że pokusa testowania nowych modeli jest ogromna.

Organizacje mogą zmienić LLM przy niewielkich lub nawet zerowych kosztach. Zastąpienie oprogramowania opartego na modelach OpenAI, Google lub Anthropic modelem DeepSeek – lub jakimkolwiek innym, który pojawi się w przyszłości – zwykle wymaga aktualizacji zaledwie kilku linijek kodu. Z tego powodu wiele organizacji chętnie sprawdza kolejne rozwiązania, ulegając wizji, że nowy model jest dokładnie tym, czego potrzeba, aby zrewolucjonizować rynek albo pokonać konkurencję.

Chociaż zagwarantowanie pełnej ochrony przed wszystkimi technikami przeciwnika dla konkretnego LLM może być wyzwaniem, organizacje mogą wdrożyć środki bezpieczeństwa, które pomogą monitorować, kiedy i w jaki sposób pracownicy korzystają z LLM. To bardzo ważne, jeśli firmy decydują się na wdrażanie nieautoryzowanych modeli językowych. To nie tylko poprawia bezpieczeństwo firmy, ale również uczy pracowników odpowiedzialnego korzystania z narzędzi, podkreślają eksperci Palo Alto Networks.

Tagi

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *