BiznesPolecane tematy

Sztuczna inteligencja z ludzką twarzą, czyli nowe regulacje Unii Europejskiej

Komisja Europejska przedstawiła projekt Rozporządzenia w sprawie europejskiego podejścia do sztucznej inteligencji (COM(2021) 206 final). Podobnie, jak w przypadku RODO, firmy, które nie będą przestrzegać proponowanych przepisów, będą mogły zostać ukarane grzywną w wysokości do 20 mln euro lub 4% rocznego obrotu.

Sztuczna inteligencja z ludzką twarzą, czyli nowe regulacje Unii Europejskiej

Zgodnie z unijną strategią „przewodnictwa regulacyjnego”, są to pierwsze na świecie przepisy, które regulują sztuczną inteligencję w jakikolwiek sposób. Podejście Unii Europejskiej jest inne niż regulacyjny leseferyzm w USA, gdzie dominuje potężny lobbying gigantów technologicznych, a także odmienne od sytuacji w Chinach, gdzie Sztuczna Inteligencja (SI) wykorzystywana jest do kontrolowania obywateli w ramach tzw. państwa nadzoru.

Europejskie podejście zorientowane na człowieka

Zamiast tego, Komisja Europejska mówi o „neutralnym technologicznie podejściu zorientowanym na człowieka”, opartym o analizę ryzyka, normy etyczne i ukierunkowanym na ochronę praw podstawowych obywateli. Sztuczna Inteligencja traktowana jest tutaj jako środek do celu, a nie cel sam w sobie. W praktyce oznacza to, że w UE mile widziane będą systemy oparte o algorytmy SI tworzące wartość dodaną w gospodarce przy poszanowaniu europejskich wartości. Jako przykłady można tu wymienić technologie usprawniające produkcję lub zwiększające wydajność, które nie będą podlegały kontroli regulacyjnej. Natomiast w sytuacji, w której systemy SI mogą stanowić zagrożenie dla praw podstawowych, będą one podlegały kontroli UE.

Sztuczna Inteligencja traktowana jest w rozporządzeniu UE jako środek do celu, a nie cel sam w sobie. W praktyce oznacza to, że w UE mile widziane będą systemy oparte o algorytmy SI tworzące wartość dodaną w gospodarce przy poszanowaniu europejskich wartości. Jako przykłady można tu wymienić technologie usprawniające produkcję lub zwiększające wydajność, które nie będą podlegały kontroli regulacyjnej. Natomiast w sytuacji, w której systemy SI mogą stanowić zagrożenie dla praw podstawowych, będą one podlegały unijnej kontroli.

Proponowane przez UE regulacje mają na celu ograniczenie ryzyka społecznie szkodliwego stosowania technologii sztucznej inteligencji, poprzez ustanowienie blankietowych zakazów lub dodatkowych wymogów dla systemów SI „wysokiego ryzyka”. Wspomniane „podejście oparte na ryzyku” wyróżnia cztery główne kategorie ryzyka dla systemów SI (ryzyko nieakceptowalne, wysokie ryzyko, ograniczone ryzyko i ryzyko minimalne) oraz cztery odpowiadające im poziomy wymogów regulacyjnych.

Projekt zakazuje stosowania następujących praktyk sztucznej inteligencji jako prezentujących nieakceptowalne ryzyko, a zatem naruszających wartości Unii lub prawa podstawowe chronione na mocy prawa Unii:

  • systemów SI, które wyrządzają krzywdę ludziom poprzez manipulowanie ich zachowaniem, opiniami lub decyzjami;
  • systemów SI, które wyrządzają krzywdę ludziom poprzez wykorzystywanie ich słabych punktów lub trudnej sytuacji;
  • systemów SI wykorzystywanych do operacji „masowego nadzoru stosowanego w sposób uogólniony wobec wszystkich osób fizycznych bez różnicowania” oraz operacji obejmujących „monitorowanie i śledzenie osób fizycznych w środowiskach cyfrowych lub fizycznych, a także zautomatyzowaną agregację i analizę danych osobowych z różnych źródeł”;
  • systemów ogólnej „punktacji społecznej”, czyli technologii rodem z serialu „Black Mirror” stosowanej przez scentralizowany chiński system ratingów społecznych.

Co ciekawe, wedle projektu, powyższe zakazy nie będą miały zastosowania do rządów i władz publicznych Unii Europejskiej, jeżeli działania systemów SI będą zgodne z prawem i przeprowadzane „w celu ochrony bezpieczeństwa publicznego”. Stwarza to furtkę dla rządów UE do stosowania tych technologii w przyszłości.

Sztuczna inteligencja wysokiego ryzyka

Poza powyższymi zakazami, większość projektu koncentruje się na regulowaniu systemów sztucznej inteligencji „wysokiego ryzyka”. Za takie projekt rozporządzenia uważa m.in. systemy SI, używane w:

  • infrastrukturze krytycznej – np. transport, elektryczność – które mogą stanowić zagrożenie dla życia i zdrowia obywateli;
  • kształceniu lub szkoleniu zawodowym – które może decydować o dostępie do edukacji i zawodowym przebiegu czyjegoś życia (np. punktacja egzaminów);
  • elementach bezpieczeństwa produktów;
  • zatrudnieniu, zarządzaniu pracownikami i dostępie do samozatrudnienia (np. oprogramowanie rekrutacyjne);
  • podstawowych usługach prywatnych i publicznych (np. scoring kredytowy);
  • egzekwowaniu prawa (np. ocena wiarygodności dowodów);
  • zarządzaniu migracją, azylem i kontrolą graniczną (np. weryfikacja autentyczności dokumentów podróży);
  • wymiarze sprawiedliwości i procesach demokratycznych (np. stosowanie prawa do konkretnego zbioru faktów).

Powyższa lista może ulec rozszerzeniu w przyszłości, w oparciu o kryteria analizy określone przez Komisję.

Systemy SI wysokiego ryzyka będą musiały spełnić wiele wymogów przed ich wprowadzeniem na rynek. Obejmują one m.in.: stosowanie odpowiednich systemów oceny i ograniczania ryzyka, opieranie treningu SI na zbiorach danych wysokiej jakości – w celu zminimalizowania ryzyka i dyskryminacyjnych wyników – a także rejestrowanie działań w celu zapewnienia identyfikowalności wyników. Niezbędne będzie również prowadzenie szczegółowej dokumentacji dotyczącej systemów SI, przeznaczonej dla organów nadzorczych w celu oceny ich zgodności z prawem, zawierającej wszystkie niezbędne informacje o systemie i jego celu. Systemy SI wysokiego ryzyka będą musiały reprezentować, wysoki poziom solidności, bezpieczeństwa i dokładności oraz wykorzystywać odpowiednie środki nadzoru ludzkiego w celu zminimalizowania ryzyka. Niezbędne będzie również przedstawianie jasnych i adekwatnych informacji dla użytkownika tychże systemów.

UE wprowadza definicję systemów SI wysokiego ryzyka, które będą musiały spełnić wiele wymogów przed ich wprowadzeniem na rynek. Obejmują one m.in.: stosowanie odpowiednich systemów oceny i ograniczania ryzyka, opieranie treningu SI na zbiorach danych wysokiej jakości – w celu zminimalizowania ryzyka i dyskryminacyjnych wyników – a także rejestrowanie działań w celu zapewnienia identyfikowalności wyników. Niezbędne będzie również prowadzenie szczegółowej dokumentacji dotyczącej systemów SI, przeznaczonej dla organów nadzorczych w celu oceny ich zgodności z prawem.

Powyższe obowiązki będą miały zastosowanie głównie do „dostawców” systemów sztucznej inteligencji. Oznacza to firmy, która wprowadzają dany system SI do obrotu lub oddają go do użytku pod własną marką lub używają go na własny użytek. Jest to podejście oparte na „produkcie”. Kluczem do odpowiedzialności jest to, czyja nazwa znajduje się w systemie SI (chociaż rejestrowane jest również użytek wewnętrzny). Mniejszemu poziomowi obowiązków będą natomiast podlegali „użytkownicy” systemów sztucznej inteligencji, importerzy i dystrybutorzy technologii. Rozporządzenie zawiera przepisy dotyczące równych szans, które obejmują dostawców lub użytkowników w państwach trzecich, których wykorzystanie sztucznej inteligencji „wpływa” na osoby w UE.

Obowiązki dostawców systemów sztucznej inteligencji

Dostawcy systemów sztucznej inteligencji „wysokiego ryzyka” będą musieli zatem włożyć znaczny wysiłek w przestrzeganie powyższych obowiązków. Z kolei użytkownicy systemów SI będą mieli bardziej ograniczone obowiązki. Muszą oni głównie używać tej technologii zgodnie z instrukcjami użytkowania i podejmować odpowiednie środki techniczne i organizacyjne, aby przeciwdziałać ryzyku stwarzanemu przez system SI. Użytkownicy muszą również monitorować działanie systemu i prowadzić zapisy opisu wykorzystywanych danych.

Dla systemów SI przedstawiających „ograniczone ryzyko”, w Rozporządzeniu przewidziano określone obowiązki w zakresie przejrzystości. Podczas korzystania z systemów SI, takich jak chatboty, użytkownicy powinni być świadomi, że wchodzą w interakcję z maszyną, aby mogli podjąć świadomą decyzję o kontynuowaniu interakcji lub wycofaniu się. Dla systemów SI przedstawiających minimalne lub żadne ryzyko (takich jak gry wideo z obsługą sztucznej inteligencji lub filtry antyspamowe), projekt Rozporządzenia pozwala na korzystanie z nich bez ograniczeń. Zdecydowana większość systemów SI stosowanych obecnie w UE należy do tej kategorii.

UE pragnie również uniknąć kwestii uprzedzeń rasowych i płciowych, które nękały rozwój tej technologii od samego początku. Jednym z wymagań Komisji w projekcie jest to, by zbiory danych nie „zawierały żadnych – zamierzonych lub niezamierzonych – uprzedzeń”, które mogą prowadzić do dyskryminacji.

Powstanie Europejska Rada ds. Sztucznej Inteligencji

Komisja planuje także ustanowienie „Europejskiej Rady ds. Sztucznej Inteligencji”, złożonej z jednego przedstawiciela z każdego z 27 krajów UE i przedstawiciela Komisji, a także Europejskiego Inspektora Ochrony Danych. Rada będzie miała za zadanie „wydawanie Komisji odpowiednich zaleceń i opinii w odniesieniu do listy zakazanych praktyk sztucznej inteligencji oraz listy systemów SI wysokiego ryzyka”.

Propozycja Komisji jest ambitna, zwłaszcza w kontekście geopolitycznym. Nie jest bowiem tajemnicą, że wielu dostawców systemów SI to wielkie firmy technologiczne z USA, które nie będą zachwycone nowymi wymogami regulacyjnymi. Może to z pewnością prowadzić do kolejnych transatlantyckich napięć, podobnie jak miało to miejsce w przypadku RODO. Również Chińczycy – rozwijający systemy SI bez jakichkolwiek skrupułów natury etycznej – będą mieli z pewnością utrudniony dostęp do europejskiego rynku. Niemniej jednak kierunek proponowanych zmian wydaje się słuszny.

Projekt Rozporządzenia czeka teraz długa i wyboista ścieżka legislacyjna, w której gracze technologicznie będą obficie korzystać z pomocy lobbystów. Będziemy na bieżąco monitorować jej rezultaty i dzielić się z Państwem nowościami na łamach ITwiz.

Sztuczna inteligencja z ludzką twarzą, czyli nowe regulacje Unii Europejskiej
adw. Tomasz Gwara, LL.M., Partner, kancelaria Discretia
Tagi

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *