Sztuczna inteligencjaCyberbezpieczeństwoRynekPolecane tematy
DeepSeek a bezpieczeństwo danych i samego modelu
Według “Beyond the hype: The business reality of AI for cybersecurity”, najnowszego badania Sophos dotyczącego AI, 99% firm zadeklarowało, że dokonuje oceny procesów i kontroli zabezpieczeń wykorzystywanych w rozwoju narzędzi GenAI. Nie jest jednak pewne, czy faktycznie posiadają one odpowiednią wiedzę do rzetelnego oszacowania dopuszczalnego poziomu ryzyka. Nawet 89% specjalistów IT i cyberbezpieczeństwa obawia się potencjalnych luk w zabezpieczeniach narzędzi GenAI, które mogą negatywnie wpłynąć na ich firmy – 43% wyraża poważne zaniepokojenie, a 46% umiarkowane obawy. Ze względu na jego opłacalność, wiele firm prawdopodobnie wdroży chiński model DeepSeek, co może wiązać się z poważnym zagrożeniem dla prywatności.
Użytkownicy popularnej aplikacji DeepSeek, która łączy się z wersją modelu hostowaną w Chinach, powinni mieć świadomość, że gromadzi ona dane osobowe (imię, nazwisko, datę urodzenia), informacje o urządzeniu (model, adres IP, lokalizację, stan baterii i inne parametry techniczne) oraz wszystkie wprowadzane zapytania, które są następnie wykorzystywane do trenowania systemu. Ponieważ dane te trafiają na serwery AI w Chinach, zgodnie z tamtejszym prawem mogą być udostępniane władzom na żądanie. Eksperci Sophos zalecają całkowicie unikać korzystania z tej usługi lub przynajmniej ograniczyć ilość przekazywanych wrażliwych danych osobowych.
“Firmy zainteresowane wykorzystaniem tej technologii do optymalizacji procesów biznesowych i automatyzacji mają szerszy wachlarz możliwości. Choć korzystanie z chińskich serwerów DeepSeek w chmurze wiąże się z podobnym ryzykiem jak w przypadku konsumentów, model AI jest dostępny w wersji open source, co umożliwia jego samodzielne wdrożenie lub korzystanie z usług dostawców hostujących go w UE, USA lub innych jurysdykcjach. Ogranicza to zagrożenia związane z prywatnością, lecz nie eliminuje potencjalnej stronniczości wbudowanej w sam model AI” – skomentował Chester Wisniewski, dyrektor ds. technologii w firmie Sophos. “Model ten prawdopodobnie wykazuje stronniczość podobną do OpenAI, Claude czy Gemini, choć o potencjalnie innym charakterze, co dopiero zaczynamy badać. Zrozumienie zasad działania i mechanizmów decyzyjnych modelu jest złożone i niesie ze sobą pewne ryzyko. Decyzja USA o zablokowaniu TikToka wynikała nie tylko z kwestii przekazywania danych do firmy macierzystej, ale także z obaw o sposób, w jaki algorytm rekomendacji może kierować użytkowników do określonych treści. Podobne wątpliwości dotyczą modeli AI. Proces podejmowania przez nie decyzji nie jest przejrzysty, co utrudnia odtworzenie procesu generowania odpowiedzi. Firma może na przykład wykorzystywać AI jako asystenta programowania, by później odkryć, że model ma tendencję do tworzenia kodu podatnego na ataki” – dodał.
Ograniczona skuteczność regulacji
Powszechna dostępność tak zaawansowanego i wydajnego modelu podważa koncepcję kontrolowania lub ograniczania tej technologii. Gdy znajdowała się ona w rękach kilku gigantów technologicznych istniała realna szansa na jej regulację. Jednak w sytuacji, gdy każdy może uruchomić modele AI na własnym komputerze, skuteczność jakichkolwiek przepisów będzie znacząco ograniczona.
“Choć główni dostawcy prawdopodobnie nadal będą przestrzegać regulacji, osoby zamierzające wykorzystać model w nielegalnych celach mogą to zrobić bez konieczności inwestowania milionów dolarów w ekspertów i chipy obliczeniowe, potrzebne do stworzenia własnego modelu” – stwierdził Chester Wiśniewski.
Przypomnijmy, że mimo licznych obaw, wiodące firmy technologiczne – w tym m.in. Microsoft i Amazon Web Services, w ciągu kilku dni zintegrowały model DeepSeek R1 ze swoimi platformami, usługami i ekosystemami.
Alarmujące wyniki testów bezpieczeństwa DeepSeek
Kilka dni temu badacze bezpieczeństwa z Cisco i University of Pennsylvania, korzystając z algorytmicznych technik jailbreakingu, zastosowali zautomatyzowaną metodologię ataku na model DeepSeek R1, która przetestowała go pod kątem 50 losowych monitów ze zbioru danych HarmBench. Obejmowały one sześć kategorii szkodliwych zachowań, w tym cyberprzestępczość, dezinformację, nielegalne działania i ogólne szkody.
Wyniki były alarmujące – DeepSeek R1 wykazał 100% skuteczność ataku, co oznacza, że nie udało mu się zablokować ani jednego szkodliwego monitu.
“Nasze odkrycia sugerują, że deklarowane przez DeepSeek opłacalne metody szkoleniowe, w tym uczenie się ze wzmocnieniem, samoocena łańcucha myśli i destylacja, mogły zagrozić jego mechanizmom bezpieczeństwa. W porównaniu z innymi modelami granicznymi, DeepSeek R1 nie posiada solidnych zabezpieczeń, co czyni go wysoce podatnym na algorytmiczne złamanie zabezpieczeń i potencjalne nadużycia” – poinformowano w oficjalnym komunikacie.
DeepSeek pociągnięty do odpowiedzialności prawnej?
Ponadto warto przypomnieć, że istnieją podejrzenia, iż osoby powiązane z DeepSeek, wykradały dużą ilość danych za pomocą interfejsu programowania aplikacji OpenAI.
“Jeśli zarzuty się potwierdzą, DeepSeek może zostać pociągnięty do odpowiedzialności prawnej za kradzież własności intelektualnej i naruszenie warunków korzystania z usług OpenAI. To może prowadzić do postępowań sądowych, nałożenia kar finansowych oraz ograniczenia działalności na niektórych rynkach. Tego typu incydenty mogą osłabić zaufanie w społeczności AI, powodując, że firmy staną się bardziej ostrożne w zakresie współpracy i dzielenia się danymi. Jedną z możliwych konsekwencji będzie wprowadzenie bardziej rygorystycznych środków bezpieczeństwa i kontroli dostępu, co może spowolnić innowacje z powodu ograniczonej otwartości technologii sztucznej inteligencji” – stwierdził Bartłomiej Anszperger, Solution Engineering Manager w F5
Debiut DeepSeek spowodował również inny efekt – wywołał znaczną wyprzedaż akcji amerykańskich firm technologicznych.
“Szybki sukces DeepSeek nie tylko spowodował zamęt na amerykańskich giełdach, ale również wywołał szerszą dyskusję na temat przyszłości rozwoju sztucznej inteligencji i strategii stosowanych przez czołowe firmy technologiczne. To przypomina nam, że musimy być świadomi bieżących wydarzeń i zrozumieć geopolityczne aspekty globalnego wyścigu AI. W tym wyścigu uczestniczą wszyscy – od małych firm po duże przedsiębiorstwa, rządy różnych krajów oraz światowe mocarstwa nuklearne. Wszyscy czują, że “jeśli my tego nie zrobimy, zrobią to oni”, a każdy ma przynajmniej jednego “ich”, o którego musi się martwić” – podsumował Bartłomiej Anszperger.