Branża ITRynek

AI Act: Parlament Europejski przegłosował projekt prawa o sztucznej inteligencji

AI Act, który będzie regulował wykorzystanie sztucznej inteligencji, definiuje konkretne poziomy ryzyka, w tym wysokiego i tzw. zabronione AI. Nie czeka nas więc przyszłość znana z Chin i system punktów społecznych. Takie praktyki będą w Unii Europejskiej zakazane. Uzgodnienia ostatecznej treści rozporządzenia, które stanie się unijnym prawem, mają potrwać około roku – będzie to pierwsze na świecie kompleksowe prawo dotyczące tej technologii. 

AI Act: Parlament Europejski przegłosował projekt prawa o sztucznej inteligencji

14 czerwca Parlament Europejski przyjął projekt AI Act zdecydowaną większością głosów – 499 za, 28 przeciw, 93 wstrzymujących się. Teraz czas na rozmowy z państwami członkowskimi UE na temat ostatecznego kształtu prawa. Miałoby ono zagwarantować, że sztuczna inteligencja – opracowywana i wykorzystywana w Europie – będzie w pełni zgodna z prawami i wartościami UE, w tym z bezpieczeństwem, prywatnością, przejrzystością, niedyskryminacją oraz dobrostanem społecznym i środowiskowym.

I tak, projekt ustanawia obowiązki dla dostawców i podmiotów wdrażających systemy sztucznej inteligencji w zależności od poziomu ryzyka, jakie technologia ta może generować. Systemy AI o niedopuszczalnym poziomie ryzyka dla bezpieczeństwa ludzi byłyby więc zabronione – choćby takie, jak te wykorzystywane do oceny społecznej, a więc znanego już z Chin klasyfikowania ludzi na podstawie ich zachowań społecznych lub cech osobistych. Zakazano również inwazyjnych i dyskryminujących zastosowań sztucznej inteligencji takich jak:

  • systemy zdalnej identyfikacji biometrycznej “w czasie rzeczywistym” w publicznie dostępnych przestrzeniach;
  • zdalne systemy identyfikacji biometrycznej “po”, za wyjątkiem egzekwowania prawa w celu ścigania poważnych przestępstw i tylko po uzyskaniu zgody sądu;
  • biometryczne systemy kategoryzacji wykorzystujące cechy wrażliwe (np. płeć, rasę, pochodzenie etniczne, status obywatelski, religię, orientację polityczną);
  • predykcyjne systemy policyjne (oparte na profilowaniu, lokalizacji lub wcześniejszych zachowaniach przestępczych);
  • systemy rozpoznawania emocji w egzekwowaniu prawa, zarządzaniu granicami, miejscu pracy i instytucjach edukacyjnych;
  • nieukierunkowane pobieranie obrazów twarzy z Internetu lub nagrań CCTV w celu tworzenia baz danych rozpoznawania twarzy (naruszanie praw człowieka i prawa do prywatności).

Z kolei wysokie ryzyko obejmować ma systemy sztucznej inteligencji stanowiące znaczną szkodę dla zdrowia, bezpieczeństwa, praw podstawowych lub środowiska. Do tego dochodzą systemy wykorzystywane do wpływania na wyborców i wyniki wyborów oraz systemy rekomendacji używane przez platformy mediów społecznościowych (z ponad 45 milionami użytkowników).

W myśl projektu AI Act, dostawcy nowych modeli opartych na sztucznej inteligencji, mieliby obowiązek oceniać i ograniczać potencjalne zagrożenia (dla zdrowia, bezpieczeństwa, praw podstawowych, środowiska, demokracji czy praworządności), a także rejestrować swoje modele w bazie danych UE przed ich wprowadzeniem na unijne rynki.

Systemy generowania sztucznej inteligencji oparte na takich modelach, jak ChatGPT, musiałyby spełniać wymogi przejrzystości – ujawniając, że treści zostały wygenerowane przez sztuczną inteligencję – i zapewniać zabezpieczenia przed generowaniem nielegalnych treści. Szczegółowe podsumowania danych chronionych prawem autorskim wykorzystanych do ich szkolenia również musiałyby zostać udostępnione publicznie.

Wspieranie innowacji i ochrona praw obywateli

Aby natomiast pobudzić innowacje w zakresie sztucznej inteligencji, europosłowie dodali wyłączenia dla działań badawczych i komponentów AI dostarczanych na licencjach typu open source. Nowe prawo promuje tzw. piaskownice regulacyjne, czyli rzeczywiste środowiska ustanowione przez władze publiczne w celu testowania sztucznej inteligencji przed jej wdrożeniem.

Ponadto, europosłowie chcą zwiększyć prawo obywateli do składania skarg dotyczących systemów AI i otrzymywania wyjaśnień odnośnie decyzji opartych na systemach AI wysokiego ryzyka, które mają znaczący wpływ na ich prawa podstawowe. Zreformowano również rolę Europejskiego Urzędu ds. Sztucznej Inteligencji, którego zadaniem będzie monitorowanie sposobu wdrażania zbioru przepisów dotyczących AI.

Potencjalne ryzyka

Przypomnijmy, że Unia Europejska rozpoczęła pracę nad ramami prawnymi dla sztucznej inteligencji dwa lata temu, kiedy temat AI nie był jeszcze tak głośny. Obecnie realia są już zupełnie inne – rozwój tej technologii dynamicznie przyspieszył i rozbudził zainteresowanie mediów, polityków oraz biznesu.

“Regulowanie “rozpędzonego pociągu” ma tę zaletę, że minimalizujemy ryzyko jego rozbicia, ale z drugiej strony będzie on poruszał się wolniej niż konkurencyjne połączenia. Wydaje mi się, że kierunek jest dobry, ale ryzyko spowolnienia rozwoju AI w Europie jest znaczące i należy obie te kwestie brać pod uwagę przy wprowadzaniu ewentualnych regulacji. Widać też, że UE nie zamierza uregulować wszystkiego raz na zawsze, bo chce powołać Europejski Urząd ds. Sztucznej Inteligencji na bieżąco śledzący rozwój tej technologii. Mam nadzieję, że nie stanie się on “policją AI”, bo taka funkcja byłaby po prostu niemożliwa do zrealizowania – dostęp do modeli i danych jest zbyt rozproszony. Sensownym scenariuszem jest, by urząd sprawował rolę think thanku będącego ciałem doradczym dla rządów” – skomentował prof. Tomasz Trzciński, lider grupy roboczej Computer Vision w IDEAS NCBR. “Unijne instytucje zapewniają, że regulacje zapisane w AI Act dotyczą tak naprawdę tylko komercyjnych zastosowań sztucznej inteligencji i nie ograniczają badań naukowych, więc Unia Europejska nie zostanie w tyle za USA czy Chinami. Jednak założenie, że to co w badaniach nie przenika do biznesu jest dość ryzykowne. W praktyce przepływ ludzi i wiedzy pomiędzy tymi dwoma rezerwuarami jest znaczny i mocno wpływa na to jak bardzo realne i stosowalne będą tego typu zabezpieczenia” – dodał.

Specjaliści wskazują natomiast, iż pozytywny jest fakt, że AI Act skupia się na rozwiązaniach, które uniemożliwiają stosowanie sztucznej inteligencji do zadań, których zazwyczaj się obawiamy np. ingerowania w prywatność.

“Regulowanie rozwoju AI od samego początku, nawet przed osiągnięciem pełnej dojrzałości tej technologii, ma swoje własne zalety. Pozwala z dużą odpowiedzialnością zidentyfikować potencjalne ryzyka związane z AI, jak również podejść do wyzwań natury etycznej w sposób proaktywny. Planowanie prac badawczych na wczesnym etapie rozwoju technologii we współpracy z legislatorami pozwala w bardziej celowy sposób wpłynąć na dostosowanie powstałych rozwiązań do  wartości i oczekiwań społeczeństwa. W rezultacie możliwe jest zapewnienie bezpieczeństwa, ochrony prywatności i odpowiedzialnego wykorzystania zasobów, co jest szczególnie istotne dla technologii o znaczącym wpływie na dobrobyt ludzki, a taką technologią jest właśnie AI” – stwierdził dr Tomasz Michalak, lider grupy roboczej AI dla bezpieczeństwa w IDEAS NCBR. “Niestety, znalezienie odpowiedniej równowagi między regulacją a innowacją jest dużym wyzwaniem. Wymaga ciągłego dialogu między decydentami, badaczami, przedsiębiorcami i społeczeństwem. Należy monitorować potencjalne ryzyka i korzyści wynikające z technologii oraz wybrać odpowiedni czas i zakres regulacji. Zatem dyskusje jakie się obecnie toczą w Unii Europejskiej, USA i na całym świecie są jak najbardziej na miejscu. Zważywszy na potencjalne ryzyka i wpływ AI na ludzkość, moim zdaniem, dmuchanie na zimne i regulacje są podejściem w tym przypadku właściwszym. Oczywiście, pytanie jakie regulacje i komu służące” – podsumował.

Tagi

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *