Sztuczna inteligencjaCIOPolecane tematy

Czy rozwój AI może zagrozić USA i zdestabilizować globalne bezpieczeństwo?

Rząd Stanów Zjednoczonych musi działać „szybko i zdecydowanie”, aby zapobiec poważnym zagrożeniom dla bezpieczeństwa narodowego wynikającym z rozwoju sztucznej inteligencji. W najgorszym przypadku mogą one spowodować „zagrożenie dla gatunku ludzkiego na poziomie wyginięcia”. Takie ostrzeżenia znalazły się w zleconym przez rząd USA, raporcie Gladstone AI, do którego dostęp uzyskał magazyn Time.

Czy rozwój AI może zagrozić USA i zdestabilizować globalne bezpieczeństwo?

„Rozwój zaawansowanej sztucznej inteligencji i AGI może potencjalnie zdestabilizować globalne bezpieczeństwo w sposób przypominający wprowadzenie broni jądrowej” – to kolejny niepokojący cytat ze wspomnianego raportu.

Przypomnijmy, że AGI (tzw. ogólna sztuczna inteligencja) to póki co wciąż hipotetyczna technologia. Mogłaby ona wykonywać większość zadań na poziomie człowieka lub wyższym. Takie systemy jeszcze nie istnieją, ale duże laboratoria AI już nad nimi pracują. Wielu ekspertów AI spodziewa się, że AGI pojawi się w ciągu najbliższych pięciu lat lub krócej.

Kontrolowanie szkolenia modeli AI

Raport „An Action Plan to Increase the Safety and Security of Advanced AI”, wskazuje zestaw szeroko zakrojonych i bezprecedensowych działań. Gdyby wprowadzono je w życie, radykalnie zakłócą one działalność branży AI.

Przykładowo, analiza ta zaleca, aby Kongres uczynił nielegalnym trenowanie modeli AI przy użyciu mocy obliczeniowej przekraczającej określony poziom. Próg ten, zgodnie z zaleceniami raportu, powinna ustalić nowa federalna agencja ds. sztucznej inteligencji. Jednocześnie autorzy raportu sugerują, że agencja mogłaby ustawić go nieco powyżej poziomów mocy obliczeniowej wykorzystywanej obecnie do trenowania modeli takich jak GPT-4 OpenAI czy Gemini firmy Google.

Wspomniana agencja powinna wymagać od firm zajmujących się AI “na granicy branży”, uzyskania rządowego pozwolenia na szkolenie i wdrażanie nowych modeli powyżej pewnego niższego progu. Władze powinny również „pilnie” rozważyć zakaz publikacji dotyczących wewnętrznego działania potężnych modeli AI na licencjach typu open source. Autorzy raportu uważają bowiem, że choć open source jest pozytywnym zjawiskiem, tak rozpowszechnianie otwartych modeli AI, może stać się niebezpieczne w przyszłości. Ponadto rząd powinien jeszcze bardziej zaostrzyć kontrolę nad produkcją i eksportem chipów AI. A także skierować fundusze federalne na badania nad „dostosowaniem” AI. Miałyby one na celu uczynienie zaawansowanej sztucznej inteligencji bezpieczniejszą.

W raporcie stwierdzono, że zakaz szkolenia zaawansowanych systemów sztucznej inteligencji powyżej pewnego progu może „złagodzić dynamikę wyścigu między wszystkimi twórcami AI”. Miałby się także przyczynić do zmniejszenia tempa produkcji szybszego sprzętu przez przemysł chipów. Z czasem federalna agencja ds. sztucznej inteligencji mogłaby podnieść próg i zezwolić na szkolenie bardziej zaawansowanych systemów AI. Mogłoby to nastąpić po dostarczeniu dowodów na bezpieczeństwo najnowocześniejszych modeli. Równocześnie rząd mógłby obniżyć próg bezpieczeństwa, gdyby w istniejących już modelach odkryto ich niebezpieczne możliwości.

„Jest bardzo mało prawdopodobne, aby ta rekomendacja została przyjęta przez rząd Stanów Zjednoczonych” – skomentował Greg Allen, dyrektor Wadhwani Center for AI and Advanced Technologies w Centrum Studiów Strategicznych i Międzynarodowych (CSIS), cytowany przez Time. Ekspert wskazuje, że obecna polityka rządu USA w zakresie AI polega na ustalaniu progów obliczeniowych, powyżej których stosuje się dodatkowe monitorowanie przejrzystości i wymogi regulacyjne, ale nie na ustalaniu limitów, powyżej których treningi byłyby nielegalne.

Dwie kategorie ryzyka

Raport koncentruje się na dwóch odrębnych kategoriach ryzyka. Pierwszą z nich nazywa „ryzykiem uzbrojenia”. Jak czytamy w analizie: „takie systemy mogą być potencjalnie wykorzystywane do projektowania, a nawet przeprowadzania katastrofalnych ataków biologicznych, chemicznych czy cybernetycznych”.

Drugą kategorią jest ryzyko „utraty kontroli” lub możliwości, że zaawansowane systemy sztucznej inteligencji mogą wymanewrować swoich twórców. W raporcie stwierdzono, że „istnieją powody, aby sądzić, że mogą one być niekontrolowane – jeśli zostaną opracowane przy użyciu obecnych technik – i mogą domyślnie zachowywać się wrogo wobec ludzi”.

Obie kategorie ryzyka potęguje „dynamika wyścigu” w branży sztucznej inteligencji. Według twórców analizy, istnieje prawdopodobieństwo, że pierwsza firma, która osiągnie AGI, będzie czerpać z tego faktu większość korzyści ekonomicznych. A to ma zachęcać firmy do przedkładania szybkości nad bezpieczeństwem. „Pierwsze laboratoria AI stają w obliczu intensywnej i natychmiastowej zachęty do skalowania swoich systemów AI tak szybko, jak to możliwe” – czytamy w raporcie. „Nie mają natychmiastowej motywacji do inwestowania w środki bezpieczeństwa lub ochrony, które nie przynoszą bezpośrednich korzyści ekonomicznych. Nawet jeśli niektórzy robią to z prawdziwej troski”.

Kontrola dostępu do chipów AI i rozwoju algorytmów?

Raport identyfikuje sprzęt – w szczególności chipy komputerowe używane do szkolenia systemów AI – jako znaczące wąskie gardło dla wzrostu możliwości sztucznej inteligencji. W dokumencie stwierdzono, że uregulowanie rozprzestrzeniania się tego sprzętu, może być „najważniejszym wymogiem w celu zapewnienia długoterminowego globalnego bezpieczeństwa i ochrony przed AI”. Rząd powinien więc monitorować czy chipy nie są czasem używane w zbyt dużych seriach szkoleniowych AI.

„W miarę doskonalenia algorytmów AI, coraz więcej możliwości AI staje się dostępnych przy mniejszej całkowitej mocy obliczeniowej. W zależności od tego, jak daleko posunie się ten trend, ograniczenie rozprzestrzeniania się zaawansowanej AI poprzez koncentrację obliczeń, może ostatecznie stać się niepraktyczne” – czytamy w raporcie. Aby uwzględnić tę możliwość, stwierdzono że nowa agencja ds. AI mogłaby rozważyć zablokowanie publikacji badań, które poprawiają wydajność algorytmów.

Przygotowanie omawianego raportu zlecił Departament Stanu USA. Napisali go pracownicy firmy Gladstone AI. Prowadzi ona briefingi techniczne na temat sztucznej inteligencji dla pracowników rządowych. Autorzy raportu pracowali nad nim ponad rok. W ramach badań rozmawiali z ponad 200 pracownikami rządowymi, ekspertami i specjalistami firm zajmujących się AI. Takich jak OpenAI, Google DeepMind, Anthropic oraz Meta. Na początku br. dokument trafił do Departamentu Stanu, który na razie nie komentuje jego ustaleń.

Tagi

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *