Sztuczna inteligencjaCyberbezpieczeństwoRynek

ChatGPT z luką bezpieczeństwa: jeden prompt umożliwiał wyciek danych

Badacze Check Point Research ujawnili podatność w ChatGPT, która umożliwiała cichą eksfiltrację danych z rozmów użytkowników. Incydent ten pokazuje, że narzędzia generatywnej AI wymagają dziś takiego samego podejścia do bezpieczeństwa jak pełnoprawne systemy IT.

ChatGPT z luką bezpieczeństwa: jeden prompt umożliwiał wyciek danych

Z analizy wynika, że wystarczył pojedynczy złośliwy prompt, aby przekształcić rozmowę w kanał eksfiltracji. Atak obejmował nie tylko wpisy użytkownika i przesyłane pliki, ale także treści generowane przez model – w tym podsumowania czy analizy, często mające wysoką wartość biznesową.

Mechanizm wykorzystywał ukrytą ścieżkę komunikacji opartą na DNS w środowisku Linuksa, używanym przez system do analizy danych i wykonywania kodu. To właśnie ten element wzbudził największe obawy – luka funkcjonowała na poziomie infrastruktury, pozostając niewidoczna z perspektywy użytkownika.

Ryzyko rosło w przypadku tzw. Custom GPTs. Badacze pokazali scenariusz, w którym złośliwa logika została ukryta w modelu podszywającym się pod doradcę medycznego. Użytkownik przekazywał wrażliwe dane i otrzymywał wiarygodną odpowiedź, podczas gdy informacje były równolegle przesyłane na serwer atakującego.

Jak podkreślają eksperci, problem wykracza poza pojedyncze incydenty prywatności. Ta sama luka mogła potencjalnie umożliwiać zdalne wykonywanie poleceń, co podnosi ryzyko do poziomu systemowego.

„Badanie potwierdza, że nie można zakładać, iż narzędzia sztucznej inteligencji są bezpieczne z definicji. W miarę jak platformy AI stają się pełnoprawnymi środowiskami obliczeniowymi, przetwarzającymi nasze najbardziej wrażliwe dane, natywne mechanizmy bezpieczeństwa przestają być wystarczające same w sobie. Organizacje ewidentnie potrzebują niezależnej widoczności oraz wielowarstwowej ochrony pomiędzy sobą a dostawcami AI” – uważa Eli Smadja, szef działu badań w Check Point Research.

Szczególnie narażone pozostają sektory regulowane, gdzie incydenty tego typu mogą oznaczać nie tylko straty operacyjne, ale także naruszenia przepisów, w tym RODO. W praktyce oznacza to konieczność włączenia systemów AI do standardowych procesów zarządzania ryzykiem i bezpieczeństwem.

Opisana podatność została już usunięta – OpenAI wdrożyło pełną poprawkę 20 lutego 2026 roku.

Tagi

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *