Sztuczna inteligencjaCyberbezpieczeństwoRynek

Agent AI w Meta sam ujawnił poufne dane

Autonomiczny agent AI używany wewnętrznie w Meta spowodował poważny incydent bezpieczeństwa. Przez blisko dwie godziny nieuprawnieni pracownicy mieli dostęp do wrażliwych danych firmy i użytkowników. Zdarzenie to otrzymało wysoki poziom alertu i pokazuje rosnące ryzyko związane z operacyjnym wykorzystaniem autonomicznych systemów AI w organizacjach.

Agent AI w Meta sam ujawnił poufne dane

Jak donosi The Information, narzędzie używane przez inżynierów do analizy problemu technicznego samodzielnie opublikowało na wewnętrznym forum poradę – bez zgody człowieka. Zastosowanie się do tej rekomendacji uruchomiło łańcuch zdarzeń, który na niemal dwie godziny otworzył dostęp do poufnych systemów zawierających dane firmowe i użytkowników osobom bez odpowiednich uprawnień.

Meta sklasyfikowała to zdarzenie jako incydent „Sev 1”, czyli drugi najwyższy poziom alarmu w wewnętrznej skali bezpieczeństwa. Według firmy nie ma dowodów na to, że dane zostały wykorzystane lub upublicznione, a wpis agenta był oznaczony jako wygenerowany przez AI.

Mechanizm incydentu pokazuje jednak fundamentalny problem nowych narzędzi: agent nie tylko analizował dane, lecz podjął działanie operacyjne – opublikował instrukcję i wpłynął na decyzję pracownika. W praktyce oznacza to przejście od AI jako narzędzia wspierającego do systemu wykonującego zadania w środowisku produkcyjnym.

Warto dodać, że nie jest to odosobniony przypadek. W lutym br. Summer Yue, szefowa bezpieczeństwa w dziale AI Meta, opisała sytuację, w której agent oparty na frameworku OpenClaw samodzielnie usunął jej całą skrzynkę e-mail – i to mimo wyraźnych poleceń, aby tego nie robić. Aby zatrzymać ten proces Yue musiała awaryjnie zalogować się z innego urządzenia.

Podobne problemy pojawiły się również poza Meta. W grudniu 2025 roku, w Amazon Web Services zmiany w kodzie wprowadzane przez agentów AI przyczyniły się do 13-godzinnej awarii jednego z narzędzi.

Powyższe przykłady wskazują na systemowy charakter ryzyka związanego z automatyzacją decyzji w środowiskach krytycznych. Eksperci podkreślają, że największe zagrożenie nie wynika z błędów samej sztucznej inteligencji, lecz z przyznania jej realnych uprawnień operacyjnych. W przeciwieństwie do chatbotów, agenci mogą przykładowo modyfikować konfiguracje, uruchamiać procesy czy manipulować danymi, a to znacząco zwiększa potencjalne skutki błędów.

Przypomnijmy, że Meta konsekwentnie rozwija technologie agentowe – niedawno spółka przejęła platformę Moltbook, mającą służyć interakcjom między agentami.

Tagi

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *