CDOPolecane tematy

List wzywający laboratoria AI do wstrzymania wyścigu rozwoju sztucznej inteligencji

List otwarty z podpisami setek największych nazwisk w branży technologicznej, w tym Elona Muska, wezwał wiodące laboratoria sztucznej inteligencji na świecie do wstrzymania szkolenia nowych, superpotężnych systemów na sześć miesięcy, mówiąc, że ostatnie postępy w AI stanowią “głębokie ryzyko dla społeczeństwa i ludzkości”.

List wzywający laboratoria AI do wstrzymania wyścigu rozwoju sztucznej inteligencji

List pojawia się zaledwie dwa tygodnie po publicznym wydaniu GPT-4 firmy OpenAI. Skłoniło to badaczy do skrócenia terminu tego, kiedy AGI – czyli Artificial General Intelligence, która przewyższa ludzkie zdolności poznawcze – nadejdzie.

Wielu ekspertów obawia się, że wraz z rozgrzewającym się wyścigiem zbrojeń w dziedzinie AI, ludzkość zmierza w kierunku katastrofy. Jak można przeczytać w liście na stronie Future of Life:

Systemy AI o inteligencji konkurencyjnej wobec człowieka mogą stanowić poważne zagrożenie dla społeczeństwa i ludzkości, co potwierdziły czołowe laboratoria AI i wiele badań. Jak stwierdzono w Asilomar AI Principles, zaawansowana AI może stanowić głęboką zmianę w historii życia na Ziemi i powinna być planowana i zarządzana z odpowiednią troską i środkami.
 
Niestety, ten poziom planowania i zarządzania nie jest realizowany, mimo że w ostatnich miesiącach laboratoria AI znalazły się w – wymykającym się spod kontroli – wyścigu w celu opracowania i wdrożenia coraz potężniejszych cyfrowych umysłów, których nikt – nawet ich twórcy – nie jest w stanie zrozumieć, przewidzieć ani wiarygodnie kontrolować.
 
Współczesne systemy AI stają się obecnie konkurencyjne dla człowieka w zadaniach ogólnych i musimy zadać sobie pytanie: Czy powinniśmy pozwolić maszynom zalać nasze kanały informacyjne propagandą i nieprawdą? Czy powinniśmy zautomatyzować wszystkie zawody, w tym te dające satysfakcję? Czy powinniśmy rozwijać nie-ludzkie umysły, które w końcu mogą nas przewyższyć, przechytrzyć, zdezaktualizować i zastąpić? Czy powinniśmy ryzykować utratę kontroli nad naszą cywilizacją?
 
Takich decyzji nie wolno delegować niewybieralnym liderom technologicznym. Potężne systemy AI powinny być rozwijane tylko wtedy, gdy mamy pewność, że ich efekty będą pozytywne, a ryzyko możliwe do opanowania. Ta pewność musi być dobrze uzasadniona i wzrastać wraz z wielkością potencjalnych efektów systemu.
 
Ostatnie oświadczenie OpenAI dotyczące sztucznej inteligencji ogólnej, stwierdza, że “W pewnym momencie może być ważne, aby uzyskać niezależną recenzję przed rozpoczęciem szkolenia przyszłych systemów, a dla najbardziej zaawansowanych wysiłków, aby zgodzić się na ograniczenie tempa wzrostu mocy obliczeniowej wykorzystywanej do tworzenia nowych modeli.”
 
Zgadzamy się. Ten punkt jest właśnie teraz. Dlatego wzywamy wszystkie laboratoria AI do natychmiastowego wstrzymania na co najmniej 6 miesięcy szkolenia systemów AI potężniejszych niż GPT-4.
 
Ta pauza powinna być publiczna i weryfikowalna oraz obejmować wszystkich kluczowych aktorów. Jeśli taka pauza nie może być wprowadzona szybko, rządy powinny wkroczyć i wprowadzić moratorium.

Laboratoria Sztucznej Inteligencji i niezależni eksperci powinni wykorzystać tę przerwę do wspólnego opracowania i wdrożenia zestawu wspólnych protokołów bezpieczeństwa dla projektowania i rozwoju zaawansowanej Sztucznej Inteligencji, które będą rygorystycznie kontrolowane i nadzorowane przez niezależnych ekspertów zewnętrznych.

Protokoły te powinny gwarantować, że systemy, które się do nich stosują, są bezpieczne ponad wszelką wątpliwość. Nie oznacza to wstrzymania rozwoju AI w ogóle, a jedynie wycofanie się z niebezpiecznego wyścigu ku coraz większym, nieprzewidywalnym modelom czarnych skrzynek z wyłaniającymi się możliwościami.

Badania i rozwój AI powinny być ponownie skoncentrowane na tym, aby dzisiejsze potężne, najnowocześniejsze systemy były dokładniejsze, bezpieczniejsze, łatwiejsze do zinterpretowania, bardziej przejrzyste, solidne, dostosowane, godne zaufania i lojalne.

Twórcy SI muszą też współpracować z decydentami w celu radykalnego przyspieszenia rozwoju solidnych systemów zarządzania SI. Powinny one obejmować co najmniej:

  • nowe i sprawne organy regulacyjne zajmujące się AI;
  • nadzór i śledzenie wysoce sprawnych systemów AI oraz dużych puli mocy obliczeniowej;
  • systemy dowodzenia i znak wodny pomagające odróżnić prawdziwe od syntetycznych oraz śledzić wycieki modeli;
  • sprawny ekosystem audytu i certyfikacji;
  • odpowiedzialność za szkody wyrządzone przez AI;
  • solidne finansowanie publiczne badań nad technicznym bezpieczeństwem AI;
  • oraz dobrze wyposażone instytucje zajmujące się radzeniem sobie z dramatycznymi zakłóceniami gospodarczymi i politycznymi (zwłaszcza demokracji), które spowoduje AI.

Ludzkość może cieszyć się kwitnącą przyszłością dzięki AI. Po tym, jak udało nam się stworzyć potężne systemy AI, możemy teraz cieszyć się “latem AI”, podczas którego będziemy zbierać nagrody, projektować te systemy z wyraźną korzyścią dla wszystkich i damy społeczeństwu szansę na dostosowanie się.

Społeczeństwo zrobiło pauzę w przypadku innych technologii o potencjalnie katastrofalnych skutkach dla społeczeństwa (klonowanie ludzi, modyfikacja ludzkiej linii zarodkowej, badania nad przyrostem funkcji oraz eugenika). Możemy to zrobić też tutaj.

Cieszmy się długim „latem” AI, a nie pędźmy nieprzygotowani do „jesieni.”

Jak pisze TIME, lista sygnatariuszy zawiera nazwiska ponad 1000 osób obok Elona Muska; także Steve’a Wozniaka, współzałożyciela Apple; Yuval Noah Harari, autora Sapiens i innych, najbardziej zasłużonych naukowców AI odpowiedzialnych za wielokrotne przełomy np. w Machine Learning. Na liście pojawiło się również co najmniej czterech pracowników Google, w tym trzech z jego laboratorium AI DeepMind (choć na razie nikt z OpenAI), Emad Mostaque, dyrektor generalny Stability AI oraz Tristan Harris, dyrektor wykonawczy Center for Humane Technology.

List wzywa wszystkie laboratoria AI do zgody na wykorzystanie proponowanej, 6-miesięcznej pauzy w celu kontynuowania badań nad bezpieczeństwem. Osoby stojące za listem zauważają, że nie wzywają do wstrzymania rozwoju SI w ogóle, a raczej do “odstąpienia od niebezpiecznego wyścigu do coraz większych nieprzewidywalnych modeli typu black-box z emergentnymi zdolnościami.”

Gary Marcus, sygnatariusz listu otwartego i autor książki “Rebooting AI”, powiedział TIME, że dodał swoje nazwisko, ponieważ czuł się zobowiązany do zabrania głosu. “Istnieją poważne zagrożenia w bliskiej i dalekiej perspektywie, a korporacyjna odpowiedzialność za AI wydaje się tracić modę właśnie wtedy, gdy ludzkość najbardziej jej potrzebuje” – powiedział.

Blundering tak szybko, w niezbadane terytorium z tak dużą stawką nie wydaje się świetną drogą. Jeśli [korporacje – przyp. red.] nie będą traktować tych zagrożeń wystarczająco poważnie, ważne jest, aby reszta z nas zabrała głos.

Co obecnie robimy? Skalujemy takie systemy do bezprecedensowych poziomów możliwości w wyścigu na pełnej prędkości z transformacyjnymi skutkami dla społeczeństwa.

Musimy spowolnić rozwój tych systemów, aby pozwolić społeczeństwu na adaptację i przyspieszenie alternatywnych architektur AGI, które są bezpieczne i formalnie weryfikowalne z założenia.

Tagi

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *

2 thoughts on “List wzywający laboratoria AI do wstrzymania wyścigu rozwoju sztucznej inteligencji”