Sztuczna inteligencjaCDOCIOPolecane tematy

AI Act – totalna regulacja sztucznej inteligencji w UE

Sztuczna inteligencja od dawna znajduje się wśród priorytetów legislacyjnych Unii Europejskiej. Dlatego Komisja Europejska już ponad dwa lata temu (21 kwietnia 2021 r.) przedstawiła propozycję rozporządzenia ws. sztucznej inteligencji AI Act (AIA). Mio tego, proponowana regulacja spokojnie „dochodziła” w legislacyjnych trybach Parlamentu Europejskiego i jedyne, co było słychać w jej kontekście, to kolejne przesunięcia terminu jej uchwalenia.

AI Act – totalna regulacja sztucznej inteligencji w UE

W czerwcu 2023 roku Parlament Europejski przedstawił listę poprawek do propozycji Komisji. Teraz prace nad AI Act wchodzą w ostatnią fazę – ostateczny kształt rozporządzenia będzie podlegał trójstronnym uzgodnieniom między Radą, Komisją i Parlamentem. Uchwalonego AI Act możemy spodziewać się nawet jeszcze w tym roku. Wejście w życie AIA ma nastąpić po okresie vacatio legis, które będzie wynosić najpewniej 2 lata.

W efekcie każdy system AI udostępniony na terenie UE po dacie wejścia w życie AI Act będzie musiał być z nim zgodny. Proponowane rozporządzenie, w art. 83, ustanawia jednak pewne wyjątki. Dla biznesu ważny jest ten, który mówi, że systemy wysokiego ryzyka umieszczone na rynku UE przed datą stosowania przepisów nie będą musiały spełniać wymogów AIA, chyba że „po tej dacie projekt lub przeznaczenie tych systemów ulegną znaczącym zmianom”. Czym jest zmiana przeznaczenia lub projektu w kontekście rozwiązań wykorzystujących Machine Learning, którego istota jest poniekąd autonomiczna?

AI Act – totalna regulacja sztucznej inteligencji w UE

Brakuje tutaj ważnych odpowiedzi. Ostrożność podpowiada, że lepiej, aby przed datą stosowania przepisów każdy system AI w Unii Europejskiej – który można roboczo określać „istotnym” – spełniał wymagania proponowanego rozporządzenia.

Regulacja „cała naprzód”, czyli horyzontalne podejście

Sztuczna inteligencja od dawna jest jednym z wielu pól wyścigu światowej ekonomii. Za rozwojem technologii kroczy rozwój regulacji. Unia Europejska wystąpiła z projektowanym prawem właściwie jako pierwsza. I podjęła się ambitnego, choć karkołomnego zadania. AIA jest rozporządzeniem, więc ma obowiązywać w taki sam sposób, w tym samym brzmieniu, w każdym kraju, bez potrzeby jej implementacji (w przeciwieństwie do dyrektyw, np. ws. odpowiedzialności za AI – o czym mowa w artykule „Co jeśli AI zawiedzie, czyli odpowiedzialność cywilna za sztuczną inteligencję”).

Definicja AI zaproponowana przez PE określa ją jako system oparty na maszynie, który może działać na różnym poziomie autonomii i może, dla wyraźnych lub dorozumianych celów, generować wyniki, takie jak prognozy, zalecenia lub decyzje wpływające na środowisko rzeczywiste lub wirtualne.

Co więcej, AIA z założenia ma być regulacją horyzontalną. Czyli obejmować każde zastosowanie AI w Unii, niezależnie od tego, z jakiego rodzaju narzędziem mamy do czynienia; czy ma być wykorzystywane przez państwo, przedsiębiorców, czy w obrocie powszechnym (tj. przez „zwykłych ludzi”). Nad przestrzeganiem AI Act, w każdym kraju, dla każdego podmiotu, będzie czuwał jeden organ. Prezentowane przez UE podejście trzeba chwalić za jego zupełność i równe podejście (żadna branża biznesu nie będzie obciążona regulacjami o AI, kiedy inne będą cieszyć się niemal pełną swobodą – jak to jest np. w kontekście chmury obliczeniowej).

Cierpi przez nie jednak nadmierna ogólność projektu rozporządzenia i coś, co można nazwać kolokwialnie „ostrymi brzegami”. Zabrakło miejsca na specyfikę pewnych branż oraz przestrzeni na wdrożenie całości rynku w dość rygorystyczne regulacje (będą one trudniejsze do wdrożenia np. w przemyśle czy e-commerce, które nie były przyzwyczajone do nadmiernych regulacji). W naszej ocenie być może rozsądniejszy byłby pakiet siostrzanych rozporządzeń, które odrębnie podchodziłyby do wykorzystania AI w różnych sektorach gospodarki i życia społecznego.

Potrzeba regulacji sztucznej inteligencji jest podnoszona coraz częściej w opinii publicznej. I, wbrew pozorom, jest konieczna dla rozwoju biznesu. Niepewność prawa jest wszak niebezpieczna dla rynku. Uważamy, że wstrzymanie postępu technologii nie jest możliwe, ale zgadzamy się, że niezbędne jest wyznaczenia ram prawnych funkcjonowania AI i to już na obecnym etapie jej rozwoju. Dlatego należy się przyjrzeć, co dla nas, obywateli, przedsiębiorców i konsumentów żyjących w Unii Europejskiej, niesie AIA.

Zakres podmiotowy i terytorialny AI Act (kto i gdzie?)

AI Act (art. 2) nakłada obowiązki na dostawców, którzy opracowują systemy AI lub zlecają ich opracowanie i wprowadzają do obrotu lub oddają do użytku systemy AI na terytorium UE. Obowiązkami obciążeni zostaną również beneficjenci – użytkownicy rozwiązań AI, którzy korzystają z nich pod kontrolą w UE. Projekt przewiduje nałożenie proporcjonalnych obowiązków również na importerów, dystrybutorów czy upoważnionych przedstawicieli.

AI Act z założenia ma być regulacją horyzontalną. Czyli obejmować każde zastosowanie AI w Unii, niezależnie od tego, z jakiego rodzaju narzędziem mamy do czynienia; czy ma być wykorzystywane przez państwo, przedsiębiorców, czy w obrocie powszechnym (tj. przez „zwykłych ludzi”).

Zwracamy tutaj uwagę, że AIA ma mieć zastosowanie także do dostawców i użytkowników systemu sztucznej inteligencji, którzy znajdują się poza UE, jeżeli wyniki działania ich systemu są wykorzystywane w UE, czy raczej Europejskiego Obszaru Gospodarczego (EOG). Czyli jeśli jakaś firma z siedzibą, personelem i infrastrukturą IT w Stanach udostępnia na terenie Unii, usługę SaaS opartą o generatywny model AI, to w zakresie strumienia usługi dla Europy, tak firma będzie podlegać AIA. Regulacji tej będzie podlegać każdy, korzystający z AI lub udostępniający AI na terytorium EOG.

Zakres przedmiotowy AIA (Czym jest sztuczna inteligencja według UE?)

Definicja sztucznej inteligencji była jednym z najczęściej dyskutowanych i modyfikowanych fragmentów AI Act. I z pewnością wzbudzała też największe emocje. Jej znaczenie jest niebagatelne. Każde rozwiązanie zakwalifikowane jako AI będzie podlegać AIA. Wykluczenie z definicji pozostawia swobodę regulacyjną w jego dystrybucji i korzystaniu.

Organom unijnym przyświecał od początku cel, aby definicję systemu sztucznej inteligencji sformułowano w ramach prawnych w taki sposób aby była ona w możliwie największym stopniu neutralna pod względem technologicznym i nie ulegała dezaktualizacji, biorąc pod uwagę szybki rozwój technologiczny i rozwój sytuacji rynkowej w dziedzinie AI.

Najnowsza definicja zaproponowana przez PE określa AI jako system oparty na maszynie, który może działać na różnym poziomie autonomii i może, dla wyraźnych lub dorozumianych celów, generować wyniki, takie jak prognozy, zalecenia lub decyzje wpływające na środowisko rzeczywiste lub wirtualne (art. 2 pkt 1 AIA). Wcześniej propozycja definicji odwoływała się do załącznika, który z kolei listował technologie, w jakich zakresie AIA uznaje dany model/system za oparty o sztuczną inteligencję.

Systemy wysokiego ryzyka, zgodnie z art. 51 i 60 AIA, powinny być rejestrowane w publicznej, powszechnie dostępnej bazie danych Unii Europejskiej. Zakres danych do umieszczenia w rejestrze może budzić pytania co do ochrony tajemnicy przedsiębiorstwa.

Aktualna propozycja na pierwszy rzut oka wydaje się bardziej fair, ale przez swoją ogólność niechybnie będzie prowadzić do problemów „granicznych” – tzn. kiedy dany system jest AI, a kiedy jeszcze nie. Należy dodać, że proponowana definicja jest szalenie szeroka (model nią objęty nie musi być szczególnie inteligentny…). A spodziewamy się, że organy krajowe i unijne ds. AI oraz sądy będą ją interpretować szeroko.

AI-owe podejście oparte na ryzyku

AI Act opiera się na podejściu opartym na analizie ryzyka, które znane jest nam już m.in. z RODO czy wielu regulacji z obszaru finansowego. Systemy AI, czy może raczej sposoby ich wykorzystania (na tym tle ukazuje się pewna słabość techniczna przepisów AIA, płaszczyzna podziału nie jest konsekwentna logicznie), zostały w rozporządzeniu podzielone na kategorie ryzyka: zakazane, wysokie oraz inne (niższe) niż wysokie. W założeniu obowiązkami na podstawie AI Act mają być objęte przede wszystkim takie rozwiązania AI, których wykorzystanie może powodować zagrożenie dla praw podstawowych, zdrowia i bezpieczeństwa człowieka. Im bardziej ryzykowne wykorzystanie sztucznej inteligencji, tym ostrzejsza reglamentacja jej wykorzystania.

Zakazane sposoby użycia AI w UE

Kwalifikacja systemu AI do grupy „zakazanego ryzyka” wiąże się z zakazem wprowadzania do obrotu, oddawania do użytku lub wykorzystywania w Unii Europejskiej takiego systemu.

Do niedopuszczalnych praktyk w zakresie sztucznej inteligencji zalicza się (art. 5 AIA), m.in.:

  • poznawczo-behawioralną manipulację ludźmi poprzez wykorzystywanie technik podprogowych lub wpływanie na słabości określonej wrażliwej grupy (np. z wiek, niepełnosprawność czy zaburzenia psychiczne), a także inne techniki, które mają celowo manipulować człowiekiem;
  • scoring obywateli: klasyfikację osób fizycznych na podstawie ich zachowań, statusu społeczno-ekonomicznego czy cech osobistych;
  • systemy kategoryzacji biometrycznej, które kategoryzują osoby fizyczne według wrażliwych lub chronionych atrybutów i cech, a także na podstawie wnioskowania o tych cechach czy właściwościach;
  • identyfikację biometryczną wykorzystywaną w miejscach publicznie dostępnych przez organy ścigania lub w ich imieniu do celów egzekwowania prawa;
  • rozpoznawanie emocji wykorzystywane w egzekwowaniu prawa, zarządzaniu granicami, miejscu pracy lub instytucjach edukacyjnych;
  • tworzenie lub rozszerzanie baz danych rozpoznawania twarzy przy użyciu masowego pobierania (scraping) danych biometrycznych z mediów społecznościowych lub nagrań CCTV;
  • prognozowanie ryzyka popełnienia przestępstwa przez obywateli.

Nie wszystkie wymienione powyżej techniki są zakazane bezwzględnie. W rozporządzeniu proponowane są wyjątki umożliwiające ich wykorzystanie w określonych przypadkach np. możliwość stosowania identyfikacji biometrycznej w celu poszukiwania konkretnych potencjalnych ofiar przestępstw.

Zlekceważenie zakazu którejkolwiek ze wskazanych wyżej praktyk wiąże się z dotkliwą sankcją. Projektowany art. 71 ust. 3 AIA zakłada za to karę administracyjną w wysokości do 40 mln euro lub, jeżeli sprawca to firma, do 7% jego całkowitego, rocznego, światowego obrotu z poprzedniego roku obrotowego, w zależności od tego, która z tych kwot jest wyższa.

W AI Act zaproponowano stworzenie nowej instytucji: AI Office. Jej głównym zadaniem ma być monitorowanie wdrażania przepisów dotyczących AI oraz wspieranie Komisji Europejskiej i krajowych organów nadzorczych.

Spotykaliśmy się czasem z nieco lekceważącą postawą klientów odnośnie do zakazanych praktyk AI. Przecież bank, wielka platforma handlowa czy sieć placówek medycznych nie zamierza nikogo śledzić ani wykorzystywać. Szkopuł w tym, że samo zadeklarowanie czy zaprojektowanie algorytmów tak, aby nie działały w zakazany sposób, to za mało. Ważna będzie tu kontrola.

W naszej ocenie kluczowe okaże się przyjęcie skutecznych mechanizmów kontraktowych, procesowych i technicznych, które umożliwią monitorowanie i będą zapobiegać samodzielnemu zejściu modeli AI na taką ścieżkę (która przecież z perspektywy działającej statystycznie AI może okazać się najskuteczniejsza). W praktyce bardzo interesujące może okazać się także ocenianie, kiedy model AI miał „celowo” manipulować człowiekiem. Przekonywanie kogoś do czegokolwiek jest już przecież poniekąd manipulowaniem czyimś zachowaniem.

Systemy wysokiego ryzyka

Gross przepisów AI Act poświęcony jest systemom sztucznej inteligencji wysokiego ryzyka. Czyli takim rozwiązaniom, które na terenie UE można wykorzystywać, ale przy spełnieniu wynikających z AIA obowiązków (natury technicznej, procesowej albo formalno-dokumentowej). Systemy AI wysokiego ryzyka zdefiniowano w art. 6 AIA, w sposób dwutorowy.

Po pierwsze, systemem AI wysokiego ryzyka jest system, który jest produktem objętym unijnym prawodawstwem harmonizacyjnym, wymienionym w załączniku II do AIA, albo jest wykorzystywany jako element bezpieczeństwa produktu objętego prawodawstwem, jeżeli musi być on poddany ocenie zgodności w celu wprowadzenia go do obrotu lub oddania do użytku (dotyczy to m.in. zabawek, samochodów, wyrobów medycznych czy wind).

Po drugie, AI wysokiego ryzyka będzie także każde rozwiązanie, które spełnia łącznie dwa warunki:

  1. Znajduje się w obrębie obszarów użycia zdefiniowanych w załączniku nr III do rozporządzenia.
  2. Stwarza znaczące ryzyko powstania szkody dla zdrowia, bezpieczeństwa, praw podstawowych obywateli, albo stwarza ryzyko dla środowiska. Rozporządzenie obliguje Komisję Europejską do wydania odpowiednich wytycznych dot. tej oceny, którą w pierwszym rzędzie mają wydawać sami dostawcy AI. Jeśli ich rozwiązania mieszczą się w ramach załącznika nr III do rozporządzenia, ale ich zdaniem nie spełniają przesłanki ryzyka, powinni to zgłosić odpowiednim organom nadzoru (przed wprowadzeniem systemu).

Każdy system AI udostępniony na terenie UE po dacie wejścia w życie AI Act będzie musiał być z nim zgodny, choć są wyjątki. Dla biznesu ważny jest ten, który mówi, że systemy wysokiego ryzyka umieszczone przed datą stosowania przepisów nie będą musiały spełniać wymogów AIA, chyba że po tej dacie ulegną znaczącym zmianom.

Załącznik nr III wskazuje aktualnie następujące obszary:

  • biometrię (w tym identyfikacja osób fizycznych i systemy rozpoznawania emocji);
  • zarządzanie i operowanie infrastrukturą krytyczną, w tym systemy stanowiące elementy bezpieczeństwa w ramach rozwiązań do zarządzania ruchem (np. lotniczym), a także elementy bezpieczeństwa w ramach rozwiązań do dostarczania mediów (np. woda i prąd) czy w zakresie krytycznej infrastruktury cyfrowej;
  • edukację i kształcenie zawodowe;
  • zatrudnienie, pracę i samozatrudnienie (w tym systemy do rekrutacji, jak i oceny i zarządzania pracownikami);
  • dostęp do kluczowych prywatnych usług (Essential Private Services), takich jak ochrona zdrowia i dostęp do mediów (np. woda i ogrzewanie), ocena zdolności kredytowej, dostęp do ubezpieczeń na życie i zdrowotnych, czy „ratunkowe” usługi publiczne (np. system decydujący o priorytetach wysłania karetki czy wozu strażackiego);
  • egzekwowanie prawa;
  • migrację, kwestie dot. azylu i kontroli granicznej;
  • zarządzanie sprawiedliwością i procesami demokratycznymi (np. systemy, które mogą wpływać na wynik wyborów);
  • wykorzystanie przez wielkie platformy social media do rekomendowania treści.

Komisja Europejska będzie uprawniona do okresowej kontroli i aktualizacji treści Załącznika nr III.

Co jeśli dany system AI spełnia kryteria „wysokiego ryzyka”? Wówczas trzeba zapewnić, aby wprowadzenie go i korzystanie z niego, odbywało się w zgodzie z długą listą wymagań:

  • zapewnienie dla niego udokumentowanego systemu zarządzania ryzykiem przez cały cykl życia, nakierowanego na właściwą identyfikację i zarządzania ryzykami specyficznymi dla danego rozwiązania AI (art. 9 AIA);
  • zapewnienie właściwego zarządzania danymi, jak i odpowiedniej jakości danych, na jakich jest trenowany i testowany system AI (przepis wskazuje dość ogólne wymagania dla całego procesu zbierania, zarządzania i treningu przy użyciu zbiorów danych; art. 10 AIA);
  • przygotowanie i dostarczenie odpowiedniej dokumentacji technicznej (spełniającej bardziej szczegółowe wymagania wskazane w Załączniku nr IV do rozporządzenia; art. 11 AIA);
  • zapewnienie narzędzi zapewniających rejestrowanie zdarzeń (record keeping) nakierowanych przede wszystkim na uzyskanie wyjaśnialności i przejrzystości działania modeli AI, ale też informacji o ich poziomie konsumpcji energii i wpływu na środowisko (art. 12 AIA);
  • zapewnianie przejrzystości i udostępniania informacji użytkownikom (art. 13 AIA);
  • zagwarantowanie nadzoru ze strony człowieka (art. 14 AIA);
  • zapewnienie dokładności, solidności i cyberbezpieczeństwa systemu (art. 15 AIA).

Jak widać, AIA ma zasadniczo 4 cele wobec systemów ryzyka. Chce zagwarantować bezpieczeństwo ich działania. Zmierza do tego, aby systemy te były nieustająco nadzorowane przez człowieka i monitorowane pod kątem stwarzanych ryzyk. Aby człowiek mógł stosunkowo łatwo zrozumieć przyczynę autonomicznej decyzji AI. I, ostatecznie, skoro jakość wyników działania AI zależy wprost od jakości danych, jakimi AI jest „karmiona” – zapewnienie wysokiej jakości tychże danych.

Rolą dostawców rozwiązań opartych o sztuczną inteligencję oraz firm zamawiających / operujących narzędziami AI będzie zapewnienie środków technicznych, procesowych oraz dokumentacji czyniących za dość obowiązkom wynikającym z AIA. Tak np. record-keeping będzie najczęściej wymagał opracowania udokumentowanego procesu rejestracji zdarzeń, ale przede wszystkim wdrożenia właściwego systemu IT „odpytującego” AI o wyjaśnienie decyzji. Zarządzanie danymi z kolei będzie wymagało zarówno rozwiązań IT wspomagających poszczególne zadania w tym zakresie, jak i procesów oraz odpowiedniej dokumentacji technicznej i prawnej.

AI Act nakłada obowiązki na dostawców, którzy opracowują systemy AI lub zlecają ich opracowanie i wprowadzają do obrotu lub oddają do użytku systemy AI na terytorium UE. Obowiązkami obciążeni zostaną również beneficjenci – użytkownicy rozwiązań AI.

Znaczna część obowiązków z AIA będzie musiała zostać spełniona inicjalnie przez dostawców. Klienci AI-providerów będą musieli z kolei pamiętać o odpowiednich mechanizmach kontraktowych i zakupowych gwarantujących realną zgodność nabywanych rozwiązań z AIA w zakresie w jaki będzie ona zależeć od dostawcy. Dodatkowym obciążeniem w obszarze systemów AI wysokiego ryzyka jest obowiązek raportowania organom nadzoru poważnych incydentów w ich działaniu (w terminie 72 godzin od nabycia o nich wiedzy).

Systemy wysokiego ryzyka, zgodnie z art. 51 i 60 AIA, powinny być rejestrowane w publicznej, powszechnie dostępnej bazie danych Unii Europejskiej (co będzie obciążać głównie dostawców tych systemów). Zakres danych do umieszczenia w rejestrze może budzić pytania co do ochrony tajemnicy przedsiębiorstwa. Nie mniej, wiele tutaj będzie zależeć od praktyki organów nadzoru.

Wymagania wobec systemów AI wysokiego ryzyka zdefiniowane w art. 9-15 AIA można oceniać dwojako ze względu na tę samą cechę. Są dość ogólne. Z jednej strony to dobrze, bo zostawiają pewną swobodę wyboru odpowiednich środków adekwatnych do poziomu ryzyka związanego z korzystaniem z danego systemu AI. Z drugiej, to źle, bo – zwłaszcza na początku obowiązywania AIA – może panować na rynku duża niepewność do standardu, jaki należy zapewnić, aby spełnić oczekiwania nadzoru.

Pewne jest, że dostosowanie systemów AI wysokiego ryzyka do wymagań AIA będzie drogie. Często podnosi się to jako generalny problem z podejściem Unii Europejskiej do sztucznej inteligencji. Faktycznie kładzie ona nacisk na bezpieczny, „cywilizowany” rozwój AI. Ale niosący za sobą wysokie koszty (dosłownie), powodujące obniżenie konkurencyjności unijnych AI-providerów, zmniejszenie atrakcyjności unijnego rynku dla pozaunijnych dostawców; znaczne zwiększenie progu inwestycji w AI przez przedsiębiorców (małe firmy może być nie stać na compliance związany z bardziej zaawansowanymi narzędziami AI), a na koniec zwiększenie kosztów po stronie konsumentów (dostawca „przerzuci” koszty na klienta, a klient na docelowego odbiorcę).

Jeszcze droższe będzie niezastosowanie się do wymagań AIA wobec systemów wysokiego ryzyka. Projekt rozporządzenia (art. 71 ust. 3a i ust. 4 AIA) przewiduje tutaj surowe kary administracyjne, mianowicie, za naruszenie:

  • w obszarze zarządzania danymi (art. 10 AIA) oraz zapewnienia przejrzystości i informowania użytkowników (art. 13 AIA) – do 20 mln euro lub 4% całkowitego światowego obrotu z poprzedniego roku, w zależności która kwota jest wyższa;
  • w pozostałym zakresie – do 10 mln euro lub 2% całkowitego światowego obrotu z poprzedniego roku.

Zamieszanie z ogólną, generatywną AI

Popularność Chatu GPT i innych otwartych, ogólnych i generatywnych modeli, wywołała żywą dyskusję, czy AI Act odpowiada rzuconym przez nie wyzwaniom. Parlament Europejski stwierdził, że nie i uzupełnił rozporządzenie o przepisy dot. modeli generatywnych (Foundation Models), czyli modeli AI, które są trenowane na szerokiej skali danych, zaprojektowane z myślą o ogólnym charakterze wyników i mogące być wykorzystywane do szerokiego zakresu różnorodnych zadań.

Zgodnie z projektowanym art. 28b AIA, generatywne modele powinny spełniać wymagania:

  1. zapewniania identyfikowania, ograniczania i łagodzenia dających się racjonalnie przewidzieć ryzyk dla zdrowia, bezpieczeństwa, praw podstawowych, środowiska, demokracji oraz praworządności, które może spowodować taki model;
  2. posługiwać się zbiorami danymi poddanymi odpowiednim procesom zarządzania nimi;
  3. projektowania i rozwijania modelu (m.in. przez odpowiedni trening i testy) w celu osiągnięcia przez niego w perspektywie całego cyklu życia odpowiednich poziomów skuteczności działania, przewidywalności, interpretowalności, możliwości korygowania, bezpieczeństwa i cyberbezpieczeństwa;
  4. projektowania i rozwijania modelu, w sposób ograniczający zużycia energii, zasobów i odpadów, jak również zwiększenia efektywności energetycznej i wydajności systemu;
  5. przygotowania i udostępnienia odpowiedniej dokumentacji technicznej i instrukcji;
  6. zapewnienia systemu oceny jakości i zgodności z wymaganiami AIA.

Dodatkowo modele generatywne zaprojektowane dla tworzenia treści, obrazków, audio i wideo powinny spełniać dodatkowe wymagania dot. transparencji staranności i bezpieczeństwa w zakresie treningu (art. 28b ust. 4 lit. a i b AIA), a także – co najistotniejsze – udokumentować oraz publicznie udostępnić odpowiednio szczegółowe podsumowanie danych użytych do treningu AI, które są chronione prawem autorskim (art. 28b ust 4 lit. c AIA).

Konieczne jest także zarejestrowanie modelu generatywnej AI w bazie UE (art. 60 AIA.). Naruszenia wymagań wobec modeli generatywnych wiąże się z ryzykiem kar do 10 mln euro lub 2% całkowitego światowego obrotu, w zależności która kwota jest wyższa (art. 71 ust. 4 AIA).

Trudno nie odnieść wrażenia, że przepisy poświęcone modelom generatywnym nieco nie pasują do wcześniej istniejących przepisów. Są też bardzo ogólne i niejednoznaczne. Być może uda się jeszcze je poprawić w toku prac legislacyjnych. Niezmiernie ciekawy jest obowiązek dot. informowania o wykorzystywanych danych chronionych prawem autorskim. W praktyce może to być szalenie trudny do spełnienia obowiązek. Z jednej strony samo identyfikowanie, które dane są objęte prawem autorskim, a które nie, może być trudne i drogie. Po drugie, udostępnienie takich informacji w przejrzysty sposób wydaje się dużym wyzwaniem.

Oczywiście sama intencja jest sensowna. Należy mieć baczenie, na jakich zasobach danych są trenowane modele AI i zapewnić poszanowanie własności intelektualnej. Wydaje się to też preludium dla regulacji, które mogą dotyczyć prawa do wynagrodzenia twórców, których prace chronione prawem autorskim zostały wykorzystane w procesie trenowania generatywnych AI.

Systemy ryzyka innego niż wysokie

Systemy AI ryzyka niższego będą mogły być opracowane i stosowane w UE bez konieczności wypełniania szczególnie dotkliwych obowiązków. W projekcie AI Act sugerowane jest, aby i wobec systemów ryzyka innego niż wysokie odpowiednio stosowano zasady AI Act. Zachęca się, aby dla takich systemów tworzone były własne kodeksy postępowania oparte na katalogu obowiązków nakładanych na AI wysokiego ryzyka. Nawet więc w razie braku kwalifikacji systemu AI jako systemu wysokiego ryzyka może się okazać, że konieczne będzie dostosowanie systemu do poszczególnych zasad AI Act. Może to wpływać na konkurencyjność rozwiązań AI na rynku.

Bez dokładnego wskazywania kategorii ryzyka, w art. 52 AI Act wprowadzono dodatkowe obowiązki w zakresie przejrzystości. Podlegać im będą systemy wchodzące w interakcje z ludźmi (chatboty), systemy rozpoznawania emocji, systemy kategoryzacji biometrycznej oraz systemy AI, które generują lub manipulują obrazami, treściami audio lub wideo (deepfake). Użytkownicy takich systemów powinni mieć świadomość, że wchodzą w interakcję ze sztuczną inteligencją, aby mogli podejmować świadome decyzje, czy chcą z rozwiązań AI korzystać.

Nadzorować i karać: unijne i krajowe organy nadzoru

Ciężar regulacji narzuconych na producentów, dystrybutorów i użytkowników AI wymaga stworzenia infrastruktury desygnowanej do egzekwowania przepisów. W tym celu w AI Act zaproponowano stworzenie nowej instytucji: AI Office. Jej głównym zadaniem ma być monitorowanie wdrażania przepisów dotyczących AI oraz wspieranie Komisji Europejskiej i krajowych organów nadzorczych.

Każde państwo jest zobowiązane do ustanowienia właściwych organów na potrzeby zapewnienia stosowania i wdrażania AI Act. Można się zatem spodziewać powołania, także w Polsce, urzędu ds. AI bądź nadania jego kompetencji już istniejącemu urzędowi.

Funkcję organu nadzoru na poziomie unijnym, istotnym zwłaszcza w kontekście użycia danego systemu AI wysokiego ryzyka czy modelu generatywnego na poziomie transgranicznym, będzie pełnić Komisja Europejska.

Podsumowanie, widoki na przyszłość

W tej chwili oczywiście nie da się przewidzieć, kiedy AIA wejdzie w życie (kilka terminów już okazało się nieprawdziwych). Nie mniej ten moment będzie miał przełomowe znaczenie. W praktyce każdy dostawca IT i każda organizacja chcąca korzystać ze sztucznej inteligencji będzie podmiotem regulowanym, i to dość intensywnie. Biorąc pod uwagę, że niebawem prawdopodobnie rynek będzie „pełen” AI, tych podmiotów regulowanych będzie mnóstwo.

Może zastanawiać, czy krajowe organy nadzorcze będą w stanie podołać obowiązkom nadzoru i kontroli. Będą potrzebować pokaźnych budżetów i wielu dobrych specjalistów. Jeden i drugi element mogą okazać się deficytowe. Abstrahując od potencjalnej skuteczności (lub jej braku) egzekwowania AIA, ocena treści rozporządzenia jest niejednoznaczna. Należy docenić i pochwalić próbę całościowego objęcia regulacją sztucznej inteligencji, pewną zupełność tego aktu prawnego. Słusznie opiera się on na podejściu opartym o ciągłą ocenę ryzyka i podejmowaniu środków stosownych do jej wyników. Widać też trafne rozłożenie akcentów, stanowcze postawienie na wyjaśnialność, rejestrację zdarzeń, dbałość o zarządzanie danymi.

Jednocześnie, technika legislacyjna przepisów AIA pozostawia wiele do życzenia. Przepisy nie są jasne nawet dla prawników zagłębionych w materię. Momentami bywają bardzo niejednoznaczne i ogólne, by w innym miejscu być dokuczliwie szczegółowymi i kazuistycznymi. Oceniając je z perspektywy mniej prawniczej, a bardziej społecznej i politycznej, należy zwrócić uwagę, że AIA kładzie nacisk głównie na ochronę praw, w tym prywatności, obywateli EU. Wyznacza tym samym, podążając tą samą drogą, co np. RODO, dużo obowiązków sprowadzających się realnie do posiadania bardzo szerokiego wachlarza udokumentowanych procesów. Czy to wystarczy do poskromienia ryzyk wynikających z AI? Okaże się.

Z pewnością narzucane przez AIA obowiązki nie będą proste do implementacji dla organizacji nieposiadających znaczących środków na compliance. Obowiązki te będą drogie, a ich koszty poniosą, koniec końców, obywatele, o których ochronę chodziło. Mamy też niestety przeczucie, że ciężar regulacji wynikających z AIA znacząco utrudni konkurowanie na rynku mniejszym firmom – zarówno potencjalnym dostawcom rozwiązań AI, jak i firmom korzystającym z AI. Mogą zostać „wymieceni” przez większą, bogatszą konkurencję, zwłaszcza o zasięgu globalnym.

Ocena czy horyzontalna jednolita regulacja dla wszystkich jest słuszna koncepcyjnie, względem typowego dla krajów anglosaskich, bardziej sektorowego podejścia, zależy od indywidualnych poglądów i preferencji. Naszym zdaniem w ten sposób niestety zaciera się specyfika poszczególnych sektorów rynku. Niektóre organizacje staną w obliczu nowych obowiązków nie do końca przystających do ich sytuacji. Inn będą mieć kolejny komplet tabel do wypełnienia.

Duch wynikających z AIA obowiązków nie ulegnie już poważnym zmianom. Zalecane jest więc:

  1. Budowanie w organizacji kompetencji technicznych, zarządczych, biznesowych i prawniczych w zakresie rozwiązań AI.
  2. Zapewnienie przez dostawców AI zgodności z AIA – zarówno ramach samych modeli, dokumentacji i procesów dotyczących tych modeli (zwłaszcza w zakresie danych); a dla „zamawiających”: przygotowanie ładu korporacyjnego oraz procesów związanych z pozyskiwaniem narzędzi AI w sposób gwarantujący wypełnianie obowiązków z AIA. W obu przypadkach sprowadzi się to do analizy czy dany system (lub usługa o niego oparta) spełnia definicję sztucznej inteligencji z rozporządzenia, czy nie generuje ryzyka wkroczenia w zakazane obszary korzystania z AI; a także czy jest systemem wysokiego ryzyka. Następnie trzeba przyjąć i utrzymywać odpowiedni komplet produktów compliance.
  3. Oddolne organizowanie się w ramach branż w zakresie standardów wdrożeń i eksploatacji AI. Sektorowe dobre praktyki, standardy i kodeksy postępowania mogą nie tylko ułatwić adaptację narzędzi AI, ale wpływać na późniejszą politykę organów nadzoru oraz redukować problem polegający na zatarciu przez horyzontalną regulację branżowej specyfiki. Doświadczenia w obszarze takiego podejścia do przyjmowania nowych, ważnych technologii mają m.in. sektor finansowy i medyczny. Warto podążyć tą ścieżką.

Trudno jednoznacznie przewidzieć wpływ AIA na ekspansję rynkową rozwiązań AI (chociaż niewątpliwie dostawcy IT będą znacznie mniej intensywnie posługiwać się sloganami dot. AI). Nie mniej potrzebne będzie właściwe wyczucie zagadnień i ryzyk prawnych, na co uczulamy.

Piotr Kaniewski, Counsel, Adwokat, kancelaria Osborne&Clarke Polska
Paulina Perkowska, Associate, Prawnik, kancelaria Osborne&Clarke Polska

Podejście do AI w krajach spoza UE Odmiennie i ostrożniej niż UE do tematu prawa ws. AI podeszły mocarstwa. Wydaje się, że Chiny i USA, bardzo skupione na innowacjach, na początku były ostrożne z działaniami prawodawczymi, aby przeregulowaniem nie wstrzymać innowacji i nie „odpaść z wyścigu”.

W USA nie znajdziemy na razie odpowiednika AI Act. Więcej uwagi poświęca się tam rekomendacjom i tzw. soft law. Nad formułowaniem wiążących zasad pracują sektorowe organy regulacyjne oraz rządy stanowe. Dodatkowo w USA i Wielkiej Brytanii myśli się o kodeksach postępowania w zakresie AI, do których stosowanie się miałoby być dobrowolne.

Bardziej kompleksowe podejście prezentują teraz Chiny, które określają zestaw odgórnych wytycznych regulacyjnych szczególnie ukierunkowanych też w stronę regulacji generatywnej AI. W kwietniu 2023 r. został opublikowany w Chinach projekt, który łączy w sobie zobowiązania promieniujące z wartości chińskiego systemu politycznego, takie jak wymóg, aby generowane treści odzwierciedlały “podstawowe wartości socjalistyczne”, z powszechnymi międzynarodowymi wymaganiami, takimi jak ochrona własności intelektualnej.

Warto zwrócić uwagę również na odrębne od unijnego podejście Wielkiej Brytanii. W wyniku obawy, by przez surowe przepisy nie zatrzymać innowacji, tamtejszy rząd zrezygnował z przekazywania odpowiedzialności za zarządzanie AI nowemu regulatorowi. Zamiast tego, skierował się do istniejących, sektorowych regulatorów, aby zaprojektowali własne podejścia, które najlepiej pasują do sposobu, w jaki AI jest wykorzystywana w ich sektorach.

Tagi

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *