CyberbezpieczeństwoSztuczna inteligencjaCIORynekPolecane tematy
Czerwone linie dla AI
Podczas 80. Zgromadzenia ogólnego ONZ ogłoszono apel wybitnych naukowców, przedstawicieli biznesu (w tym czołowych firm AI) i polityków, skierowany do rządów o wyznaczenie wyraźnych ograniczeń dla kierunków rozwoju AI. Mogłyby one dotyczyć tak odległych kwestii, jak zakazu samoreplikacji czy możliwości obrażania żywych osób, ale i kontroli nad systemami nadzorowania broni jądrowej.

„Wzywamy rządy do osiągnięcia międzynarodowego porozumienia w sprawie czerwonych linii dla sztucznej inteligencji – zapewniając, że będą one funkcjonować, z solidnymi mechanizmami egzekwowania – do końca 2026 roku” – tak brzmi końcowe wezwanie apelu, który przedstawiła laureatka pokojowej nagrody Nobla w 2021 roku, Maria Resa, filipińska dziennikarka, podczas sesji ONZ.
Apel podpisało ponad 200 znanych osób ze świata nauki, także badań nad AI, ekonomii i polityki. Wśród nich jest 10 laureatów nagrody Nobla, m.in. laureaci z dziedziny fizyki, jak Geoffrey Hinton i John Hopfield, za prace nad sztucznymi sieciami neuronowymi, czy laureaci z ekonomii jak Daron Acemoğlu, Oliver Hurt i Joseph Stiglitz, chemii – Jennifer Doudna.
Wśród sygnatariuszy zwraca uwagę obecność polskich nazwisk – Wojciecha Zaremby, współzałożyciela Open AI oraz Jakuba Pachockiego, głównego naukowca Open AI. Obok nich pod apelem podpis złożyli tak znani przedstawiciele środowiska twórców AI jak Ian Goodfellow z Google DeepMind oraz Jason Clinton, Chief Information Security Officer w Anthropic.
Pełna lista sygnatariuszy znajduje się pod adresem: https://red-lines.ai/#signatories
Kurs na katastrofę
Autorzy apelu zwracają uwagę, że „obecna trajektoria (rozwoju AI – red.) niesie ze sobą bezprecedensowe zagrożenia. Sztuczna inteligencja może wkrótce znacznie przewyższyć ludzkie możliwości i eskalować zagrożenia, takie jak pandemie, powszechna dezinformacja, manipulacja na dużą skalę jednostkami, w tym dziećmi, obawy o bezpieczeństwo narodowe i międzynarodowe, masowe bezrobocie i systematyczne łamanie praw człowieka”.
Jak podkreślają, niektóre zaawansowane systemy sztucznej inteligencji już wykazały zwodnicze i szkodliwe zachowanie, pomimo to pozostają bez kontroli a wręcz zyskują jeszcze większą autonomię, która coraz trudniej podlega ludzkiej kontroli.
Autorzy apelu podkreślają, że „rządy muszą podjąć zdecydowane działania, zanim zamknie się okno na znaczącą interwencję”. Miałyby temu służyć jasno określone i egzekwowane powszechnie granice, „czerwone linie” dla rozwijania AI. Na zasadzie dobrowolności i powszechnej zgody mieliby w tym samoograniczeniu uczestniczyć wszyscy dostawcy AI.
Jak wytyczyć granice?
Jeden z sygnatariuszy apelu, profesor Gary Marcus, przytacza link do bardziej precyzyjnych pomysłów, które przedstawił inny z sygnatariuszy, prof. Scott Russel z Uniwersytetu Berkley. Jego postulaty dotyczą wyznaczenia konkretnych kwestii: zakazu samoreplikacji, obrażania prawdziwej osoby, doradzania terrorystom czy włamania do innych komputerów. Istotą zmiany w podejściu do AI ma być zarazem budowa AI bezpiecznego „by design”, a nie reagowania po fakcie i filtrowania wychwyconych negatywnych zachowań AI działających systemów.
Czerwone linie mogą koncentrować się albo na zachowaniach AI (tj. na tym, co mogą robić systemy AI), albo na zastosowaniach AI (tj. na tym, w jaki sposób ludzie i organizacje mogą korzystać z takich systemów). Autorzy apelu i uczestnicy inicjatywy (70 organizacji) nie chcą jednak koncentrować się na wspieraniu żadnych konkretnych czerwonych linii. Ich zdefiniowanie i wyjaśnienie ma być wynikiem dialogu naukowo-dyplomatycznego.
Przykłady czerwonych linii dla zastosowań sztucznej inteligencji podane przez uczestników inicjatywy, to:
- Dowodzenie i kontrola nuklearna: zakaz delegowania uprawnień do wystrzeliwania pocisków nuklearnych lub podejmowania krytycznych decyzji w zakresie dowodzenia i kontroli systemom sztucznej inteligencji (zasada już uzgodniona przez USA i Chiny).
- Zabójcza broń autonomiczna: zakaz rozmieszczania i używania systemów broni używanych do zabijania ludzi bez znaczącej ludzkiej kontroli i wyraźnej ludzkiej odpowiedzialności.
- Masowa inwigilacja: zakaz wykorzystywania systemów sztucznej inteligencji do obserwacji społecznej i masowej inwigilacji (przyjęty przez wszystkie 193 państwa członkowskie UNESCO).
- Podszywanie się pod człowieka: zakaz wykorzystywania i wdrażania systemów sztucznej inteligencji, które oszukują użytkowników, że wchodzą w interakcję z człowiekiem, bez ujawniania ich natury sztucznej inteligencji.
Przykłady czerwonych linii dotyczących zachowań sztucznej inteligencji:
- Złośliwe wykorzystanie w cyberprzestrzeni: zakaz niekontrolowanego uwalniania cybernetycznych środków ofensywnych zdolnych do zakłócania infrastruktury krytycznej.
- Broń masowego rażenia: zakaz wdrażania systemów sztucznej inteligencji, które ułatwiają rozwój broni masowego rażenia lub naruszają konwencje o zakazie broni biologicznej i chemicznej.
- Autonomiczna samoreplikacja: zakaz opracowywania i wdrażania systemów sztucznej inteligencji zdolnych do replikacji lub znacznego ulepszania samych siebie bez wyraźnej zgody człowieka (konsensus ze strony chińskich i amerykańskich naukowców wysokiego szczebla).
- Zasada zakończenia: zakaz rozwoju systemów AI, które nie mogą zostać natychmiast zakończone w przypadku utraty znaczącej ludzkiej kontroli nad nimi (w oparciu o uniwersalne wytyczne dotyczące AI).
Autorzy apelu zwracają uwagę, że twarde granice dotyczące zachowań sztucznej inteligencji zaczęły już funkcjonować w ramach bezpieczeństwa i ochrony firm AI, czego przykłady to polityka odpowiedzialnego skalowania Anthropic, ramy gotowości OpenAI i ramy bezpieczeństwa DeepMind.
Skąd data 2026?
Sygnatariusze apelu podkreślają, że dłuższe zwlekanie może oznaczać mniej możliwości pod względem technicznym, jak i politycznym, na skuteczną interwencję, podczas gdy prawdopodobieństwo szkód transgranicznych gwałtownie wzrośnie.
Tempo rozwoju sztucznej inteligencji oznacza, że ryzyko, które kiedyś postrzegano jako spekulacyjne, już się pojawia – w tym ryzyko niewłaściwego wykorzystania biologicznego, systemy wykazujące zwodnicze zachowanie, a nawet odporność na kontrolę. W swoich własnych ocenach potencjału nadużyć biologicznych firmy zajmujące się sztuczną inteligencją umieszczają swoje najnowsze modele graniczne w spektrum ryzyka od średniego (Anthropic, 2025) do wysokiego (OpenAI, 2025).
Także możliwości kodowania sztucznej inteligencji szybko się podnoszą, co oznacza, że wkrótce mogą być możliwe „nadludzkie” zdolności programowania, co jeszcze bardziej przyspieszy postęp sztucznej inteligencji. Zgodnie z ostatnimi ocenami bezpieczeństwa Google DeepMind z 2024 r., sztuczna inteligencja może stać się zdolna do autonomicznej replikacji i rozprzestrzeniania się w Internecie już pod koniec 2025 r., a mediana prognoz przypada na rok 2027.







