Sztuczna inteligencjaPolecane tematy
Deklaracja z Bletchley, czyli świat o bezpieczeństwie sztucznej inteligencji
Rząd Wielkiej Brytanii był gospodarzem AI Safety Summit. Szczyt zgromadził kluczowe kraje, a także wiodące organizacje technologiczne oraz przedstawiciele środowiska akademickiego. Jego uczestnicy skupili się na zagrożeniach tworzonych lub znacząco zaostrzanych przez najpotężniejsze systemy AI.
W szczególności dotyczy to rozwiązań związanych z potencjalnie niebezpiecznymi możliwościami tych systemów. Obejmuje to np. zwiększenie dostępu do informacji, które mogłyby zagrozić bezpieczeństwu biologicznemu. Szczyt skupił się również na tym, jak bezpieczne AI można wykorzystać dla dobra publicznego i poprawy życia ludzi – od ratującej życie technologii medycznej po bezpieczniejszy transport.
„Wielka Brytania nie może się doczekać ścisłej współpracy z partnerami globalnymi w tych kwestiach, aby zapewnić bezpieczeństwo granicznej sztucznej inteligencji oraz zapewnić narodom i obywatelom na całym świecie możliwość korzystania z płynących z niej korzyści teraz i w przyszłości” – piszą przedstawiciele brytyjskiego rządu.
W ramach procesu iteracyjnego i konsultacyjnego Wielka Brytania wyznacza obecnie pięć celów, które będą realizowane. Opierają się one na wstępnych konsultacjach z zainteresowanymi stronami i gromadzeniu dowodów. Będą też stanowić ramy dyskusji na szczycie dotyczące takich tematów, jak:
- wspólne zrozumienie zagrożeń stwarzanych przez sztuczną inteligencję i potrzebę działania,
- rozwój międzynarodowej współpracy w zakresie granicznego bezpieczeństwa sztucznej inteligencji, w tym najlepsze sposoby wspierania ram krajowych i międzynarodowych,
- środki, które poszczególne organizacje powinny podjąć, aby zwiększyć bezpieczeństwo granicznej sztucznej inteligencji,
- obszary potencjalnej współpracy w zakresie badań nad bezpieczeństwem sztucznej inteligencji, w tym ocena możliwości modeli i rozwój nowych standardów wspierających zarządzanie,
- zapewnienie bezpiecznego rozwoju sztucznej inteligencji, co umożliwi jej wykorzystanie w dobrym celu na całym świecie.Pojawienie się modeli AI o coraz bardziej ogólnych możliwościach oraz skokowe zmiany w ich dostępności i zastosowaniu tworzą perspektywę dodatkowego wzrostu nawet o 7 bln USD w ciągu najbliższych 10 lat, a także np. przyspieszenie odkrywania nowych leków.„Jednakże bez odpowiednich ograniczeń technologia ta stwarza również ryzyka, które nie ‘respektują’ tradycyjnych granic państw” – twierdzą organizatorzy AI Safety Summit. Poszczególne kraje, organizacje międzynarodowe, przedsiębiorstwa, środowisko akademickie już stymulują współpracę międzynarodową w zakresie AI, w tym na forum ONZ, Organizacji Współpracy Gospodarczej i Rozwoju (OECD), Globalnego Partnerstwa na rzecz Sztucznej Inteligencji (GPAI), Rady Europy, G7, G20 czy organizacji opracowujących stosowne standardy.
Porozumienie podpisały: Australia, Brazylia, Kanada, Chile, Chiny, Unia Europejska, Francja, Niemcy, Indie, Indonezja, Irlandia, Izrael, Włochy, Japonia, Kenia, Królestwo Arabii Saudyjskiej, Holandia, Nigeria, Filipiny, Republika Korei Południowej, Rwanda, Singapur, Hiszpania, Szwajcaria, Turcja, Ukraina, Zjednoczone Emiraty Arabskie, Zjednoczone Królestwo Wielkiej Brytanii i Irlandii Północnej, Stany Zjednoczone Ameryki.
Poniżej treść Deklaracji BletchleySztuczna inteligencja (AI) stwarza ogromne globalne możliwości: ma potencjał, aby przekształcić i poprawić ludzki dobrobyt, pokój i dobrobyt. Aby to zrealizować, potwierdzamy, że dla dobra wszystkich sztuczna inteligencja powinna być projektowana, rozwijana, wdrażana i wykorzystywana w sposób bezpieczny, skoncentrowany na człowieku, godny zaufania i odpowiedzialny. Z zadowoleniem przyjmujemy dotychczasowe wysiłki społeczności międzynarodowej na rzecz współpracy w zakresie sztucznej inteligencji w celu promowania wzrostu gospodarczego sprzyjającego włączeniu społecznemu, zrównoważonego rozwoju i innowacji, ochrony praw człowieka i podstawowych wolności oraz wspierania zaufania publicznego do systemów sztucznej inteligencji, aby w pełni wykorzystać ich potencjał.
Systemy sztucznej inteligencji są już wdrażane w wielu dziedzinach życia codziennego, w tym w mieszkalnictwie, zatrudnieniu, transporcie, edukacji, zdrowiu, dostępności i wymiarze sprawiedliwości, a ich wykorzystanie prawdopodobnie wzrośnie. Uznajemy zatem, że jest to wyjątkowy moment na podjęcie działań i potwierdzenie potrzeby bezpiecznego rozwoju sztucznej inteligencji oraz wykorzystania transformacyjnych możliwości sztucznej inteligencji dla dobra i dla wszystkich, w sposób sprzyjający włączeniu społecznemu w naszych krajach i na całym świecie. Obejmuje to usługi publiczne, takie jak zdrowie i edukacja, bezpieczeństwo żywnościowe, naukę, czystą energię, różnorodność biologiczną i klimat, realizację praw człowieka oraz wzmocnienie wysiłków na rzecz osiągnięcia Celów Zrównoważonego Rozwoju ONZ.
Oprócz tych możliwości, sztuczna inteligencja stwarza również znaczące zagrożenia, w tym w tych dziedzinach życia codziennego. W tym celu z zadowoleniem przyjmujemy odpowiednie międzynarodowe wysiłki mające na celu zbadanie i zajęcie się potencjalnym wpływem systemów sztucznej inteligencji na istniejących forach i innych odpowiednich inicjatywach, a także uznanie, że należy zająć się ochroną praw człowieka, przejrzystością i wyjaśnialnością, sprawiedliwością, odpowiedzialnością, regulacjami, bezpieczeństwem, odpowiednim nadzorem ludzkim, etyką, łagodzeniem uprzedzeń, prywatnością i ochroną danych. Zwracamy również uwagę na potencjalne nieprzewidziane zagrożenia wynikające z możliwości manipulowania treściami lub generowania treści wprowadzających w błąd. Wszystkie te kwestie są niezwykle ważne i potwierdzamy konieczność i pilność ich rozwiązania.
Szczególne zagrożenia dla bezpieczeństwa pojawiają się na “granicy” sztucznej inteligencji, rozumianej jako wysoce wydajne modele sztucznej inteligencji ogólnego przeznaczenia, w tym modele fundamentalne, które mogą wykonywać różnorodne zadania – a także odpowiednią, wąską sztuczną inteligencję, która może wykazywać zdolności powodujące szkody – które dorównują lub przewyższają możliwości obecne w dzisiejszych najbardziej zaawansowanych modelach. Znaczne ryzyko może wynikać z potencjalnego celowego niewłaściwego użycia lub niezamierzonych kwestii kontroli związanych z dostosowaniem do ludzkich intencji. Kwestie te wynikają po części z faktu, że możliwości te nie są w pełni zrozumiałe i dlatego trudno je przewidzieć. Jesteśmy szczególnie zaniepokojeni takimi zagrożeniami w dziedzinach takich jak cyberbezpieczeństwo i biotechnologia, a także tam, gdzie pionierskie systemy sztucznej inteligencji mogą zwiększać ryzyko, takie jak dezinformacja. Istnieje potencjał poważnych, a nawet katastrofalnych szkód, umyślnych lub niezamierzonych, wynikających z najbardziej znaczących możliwości tych modeli sztucznej inteligencji. Biorąc pod uwagę szybkie i niepewne tempo zmian AI oraz w kontekście przyspieszenia inwestycji w technologię, potwierdzamy, że pogłębienie naszego zrozumienia tych potencjalnych zagrożeń i działań mających na celu ich wyeliminowanie jest szczególnie pilne.
Wiele zagrożeń wynikających ze sztucznej inteligencji ma z natury charakter międzynarodowy, a zatem najlepiej jest im przeciwdziałać poprzez współpracę międzynarodową. Postanawiamy współpracować w sposób inkluzywny, aby zapewnić bezpieczną, godną zaufania i odpowiedzialną sztuczną inteligencję, która jest skoncentrowana na człowieku i wspiera dobro wszystkich poprzez istniejące fora międzynarodowe i inne odpowiednie inicjatywy, w celu promowania współpracy w celu zaradzenia szerokiemu zakresowi zagrożeń stwarzanych przez sztuczną inteligencję. Czyniąc to, uznajemy, że kraje powinny rozważyć znaczenie proinnowacyjnego i proporcjonalnego podejścia do zarządzania i regulacji, które maksymalizuje korzyści i uwzględnia ryzyko związane ze sztuczną inteligencją. Może to obejmować dokonywanie, w stosownych przypadkach, klasyfikacji i kategoryzacji ryzyka w oparciu o uwarunkowania krajowe i obowiązujące ramy prawne. Zwracamy również uwagę na znaczenie współpracy, w stosownych przypadkach, w zakresie podejść takich jak wspólne zasady i kodeksy postępowania. W odniesieniu do konkretnych zagrożeń, które najprawdopodobniej występują w związku z graniczną sztuczną inteligencją, postanawiamy zintensyfikować i podtrzymać naszą współpracę oraz rozszerzyć ją na kolejne kraje, aby zidentyfikować, zrozumieć i w razie potrzeby podjąć działania za pośrednictwem istniejących forów międzynarodowych i innych odpowiednich inicjatyw, w tym przyszłych międzynarodowych szczytów bezpieczeństwa w zakresie sztucznej inteligencji.
Wszystkie podmioty mają do odegrania rolę w zapewnieniu bezpieczeństwa sztucznej inteligencji: narody, fora międzynarodowe i inne inicjatywy, firmy, społeczeństwo obywatelskie i środowiska akademickie będą musiały współpracować. Zwracając uwagę na znaczenie inkluzywnej sztucznej inteligencji i niwelowania przepaści cyfrowej, potwierdzamy, że współpraca międzynarodowa powinna dążyć do zaangażowania i zaangażowania szerokiego grona partnerów, a także z zadowoleniem przyjmujemy podejścia i polityki zorientowane na rozwój, które mogłyby pomóc krajom rozwijającym się wzmocnić budowanie zdolności w zakresie sztucznej inteligencji i wykorzystać sprzyjającą rolę sztucznej inteligencji w celu wspierania zrównoważonego wzrostu i zniwelowania luki rozwojowej.
Potwierdzamy, że chociaż bezpieczeństwo musi być brane pod uwagę w całym cyklu życia sztucznej inteligencji, podmioty rozwijające pionierskie możliwości sztucznej inteligencji, w szczególności te systemy sztucznej inteligencji, które są niezwykle potężne i potencjalnie szkodliwe, ponoszą szczególnie dużą odpowiedzialność za zapewnienie bezpieczeństwa tych systemów sztucznej inteligencji, w tym poprzez systemy testowania bezpieczeństwa, oceny i inne odpowiednie środki. Zachęcamy wszystkie odpowiednie podmioty do zapewnienia odpowiedniej do kontekstu przejrzystości i odpowiedzialności w zakresie ich planów pomiaru, monitorowania i łagodzenia potencjalnie szkodliwych zdolności i związanych z nimi skutków, które mogą się pojawić, w szczególności w celu zapobiegania niewłaściwemu wykorzystaniu i kwestiom kontroli oraz wzmacniania innych zagrożeń.
W kontekście naszej współpracy oraz w celu informowania o działaniach na szczeblu krajowym i międzynarodowym, nasz program przeciwdziałania ryzyku związanemu z pionierską sztuczną inteligencją będzie koncentrował się na:
- identyfikacji zagrożeń bezpieczeństwa związanych ze sztuczną inteligencją będących przedmiotem wspólnego zainteresowania, budowaniu wspólnego naukowego i opartego na dowodach zrozumienia tych zagrożeń oraz podtrzymywaniu tego zrozumienia w miarę dalszego zwiększania możliwości, w kontekście szerszego globalnego podejścia do zrozumienia wpływu sztucznej inteligencji na nasze społeczeństwa;
- budowanie odpowiednich polityk opartych na ryzyku w naszych krajach w celu zapewnienia bezpieczeństwa w świetle takich zagrożeń, współpracując w stosownych przypadkach, uznając jednocześnie, że nasze podejścia mogą się różnić w zależności od uwarunkowań krajowych i obowiązujących ram prawnych. Obejmuje to, obok zwiększonej przejrzystości ze strony podmiotów prywatnych rozwijających pionierskie możliwości w zakresie sztucznej inteligencji, odpowiednie wskaźniki oceny, narzędzia do testowania bezpieczeństwa oraz rozwijanie odpowiednich możliwości sektora publicznego i badań naukowych.
W ramach realizacji tego programu postanawiamy wspierać międzynarodową sieć badań naukowych w zakresie bezpieczeństwa pionierskiej sztucznej inteligencji, która obejmuje i uzupełnia istniejącą i nową współpracę wielostronną, wielostronną i dwustronną, w tym za pośrednictwem istniejących forów międzynarodowych i innych odpowiednich inicjatyw, w celu ułatwienia dostarczania najlepszej dostępnej nauki dla kształtowania polityki i dobra publicznego.
W uznaniu transformacyjnego, pozytywnego potencjału sztucznej inteligencji oraz w ramach zapewnienia szerszej współpracy międzynarodowej w zakresie sztucznej inteligencji, postanawiamy podtrzymywać globalny dialog, który angażuje istniejące fora międzynarodowe i inne odpowiednie inicjatywy oraz w otwarty sposób przyczynia się do szerszych dyskusji międzynarodowych, a także kontynuować badania nad pionierskim bezpieczeństwem sztucznej inteligencji, aby zapewnić, że korzyści płynące z tej technologii mogą być odpowiedzialnie wykorzystywane dla dobra i dla wszystkich. Z niecierpliwością czekamy na ponowne spotkanie w 2024 roku.
Wersja angielska Deklaracji Bletchley na stronie brytyjskiego rządu.