Sztuczna inteligencjaRynekPolecane tematy

Parlament Europejski ogłosił wstępne rozporządzenie AI Act

To pierwsze na świecie ogólne przepisy, które mają regulować stosowanie sztucznej inteligencji. Ustawa ma na celu zapewnienie, że systemy sztucznej inteligencji chronią takie prawa podstawowe jak: demokracja, praworządność i zrównoważony rozwój środowiska, a jednocześnie stymulują innowacje i czynią Europę liderem w tej dziedzinie. Nieprzestrzeganie zasad AI Act może prowadzić do nałożenia kar w wysokości od 35 mln euro lub 7% globalnego obrotu, do 7,5 mln euro lub 1,5% obrotu – w zależności od naruszenia i wielkości firmy. Uzgodniony tekst musi teraz zostać formalnie przyjęty zarówno przez Parlament, jak i Radę, aby stać się obowiązującym prawem UE.

Parlament Europejski ogłosił wstępne rozporządzenie AI Act

I tak, uznając potencjalne zagrożenie dla praw obywateli i demokracji ze strony niektórych możliwych zastosowań AI, prawodawcy zdecydowali się zakazać:

  • systemów kategoryzacji biometrycznej, które wykorzystują cechy wrażliwe (np. przekonania polityczne, religijne, filozoficzne, orientację seksualną, rasę);
  • dowolnego pobierania obrazów twarzy z Internetu lub nagrań CCTV w celu tworzenia baz danych rozpoznawania twarzy;
  • rozpoznawana emocji w miejscu pracy i instytucjach edukacyjnych;
  • programów z obszaru social scoring (systemu zaufania społecznego) opartych na zachowaniach społecznych lub cechach osobistych;
  • systemów sztucznej inteligencji, które manipulują ludzkim zachowaniem w celu obejścia ich wolnej woli;
  • sztucznej inteligencji wykorzystywanej do odczytywania słabości ludzi (ze względu na ich wiek, niepełnosprawność, sytuację społeczną lub ekonomiczną).

Wyłączenia dotyczące egzekwowania prawa

Negocjatorzy uzgodnili szereg zabezpieczeń i wyjątków od stosowania biometrycznych systemów identyfikacji (RBI) w publicznie dostępnych przestrzeniach do celów egzekwowania prawa, z zastrzeżeniem uprzedniej zgody sądu i ściśle określonych list przestępstw. “Zdalny” RBI byłby wykorzystywany wyłącznie w ukierunkowanym poszukiwaniu osoby skazanej lub podejrzanej o popełnienie poważnego przestępstwa. RBI “w czasie rzeczywistym” spełniałby rygorystyczne warunki, a jego użycie byłoby ograniczone w czasie i miejscu, do celów stricte oznaczonych, takich jak:

  • ukierunkowane poszukiwania ofiar (uprowadzenia, handel ludźmi, wykorzystywanie seksualne),
  • zapobieganie konkretnemu i obecnemu zagrożeniu terrorystycznemu, lub lokalizacji bądź, identyfikacji osoby podejrzanej o popełnienie jednego z konkretnych przestępstw wymienionych w rozporządzeniu (np. terroryzm, handel ludźmi, wykorzystywanie seksualne, zabójstwo, porwanie, gwałt, rozbój z bronią w ręku, udział w organizacji przestępczej, przestępstwo przeciwko środowisku).

Bariery dla ogólnych systemów sztucznej inteligencji

Aby uwzględnić szeroki zakres zadań, jakie mogą wykonywać systemy sztucznej inteligencji i szybki rozwój ich możliwości, uzgodniono, że systemy AI ogólnego przeznaczenia (GPAI) i modele GPAI, na których są oparte, będą musiały spełniać wymogi przejrzystości, zgodnie z pierwotną propozycją Parlamentu. Obejmują więc one sporządzanie dokumentacji technicznej, przestrzeganie prawa autorskiego UE i rozpowszechnianie szczegółowych podsumowań dotyczących treści wykorzystywanych do szkolenia.

W przypadku modeli GPAI o dużym wpływie na ryzyko systemowe, negocjatorom Parlamentu udało się zapewnić bardziej rygorystyczne obowiązki. I tak jeśli modele te spełniać będą określone kryteria, trzeba będzie przeprowadzać oceny tych modeli, oceniać i ograniczać ryzyko systemowe, przeprowadzać testy kontradyktoryjności, zgłaszać Komisji poważne incydenty, zapewniać cyberbezpieczeństwo oraz raportować swoją efektywność energetyczną. Posłowie nalegali również, aby do czasu opublikowania zharmonizowanych standardów UE, GPAI z ryzykiem systemowym mogły polegać na kodeksach postępowania w celu zapewnienia zgodności z rozporządzeniem.

“Szczególnie ucieszyło mnie uwzględnienie w przepisach wyraźnych wymogów dotyczących szczegółowych podsumowań treści wykorzystywanych do szkolenia systemu. Świadome podejmowanie decyzji ma kluczowe znaczenie dla wdrożenia sztucznej inteligencji, która jest etyczna i spełnia wymogi nowego prawa. Znajomość i dokumentowanie wykorzystania zarówno uczenia maszynowego, jak i systemów sztucznej inteligencji w organizacji to prosty sposób na zrozumienie i przewidywanie luk w zabezpieczeniach krytycznych danych biznesowych, przy jednoczesnym zapewnieniu odpowiedzialnego korzystania z AI” – skomentował Neil Thacker, CISO EMEA w Netskope.

Środki wspierające innowacje i MŚP

Posłowie chcieli również zagwarantować, że przedsiębiorstwa – zwłaszcza z sektora MŚP – będą mogły opracowywać rozwiązania AI bez nadmiernej presji ze strony gigantów branżowych kontrolujących łańcuch wartości. W tym celu porozumienie promuje tzw. piaskownice regulacyjne i testy w warunkach rzeczywistych, ustanowione przez organy krajowe w celu opracowania i przeszkolenia innowacyjnej sztucznej inteligencji przed wprowadzeniem jej na rynek.

“Dla mnie najważniejszym spośród ogłoszeń był wysiłek, jaki ustawodawcy włożyli w stworzenie równowagi między regulacjami a innowacjami. Rozporządzenie jest pierwszym aktem prawnym, jaki widziałam, który aktywnie zachęca do innowacji startupy i MŚP – w rzeczywistości zawiera wyraźny przepis promujący korzystanie z „piaskownic regulacyjnych” ustanowionych przez organy krajowe, a także testowanie w czasie rzeczywistym. Dzięki temu UE będzie w stanie wspierać postęp techniczny bez ograniczania go nadmiernymi regulacjami” – podsumowała Ilona Simpson, CIO EMEA w Netskope.

Parlamentarne komisje ds. rynku wewnętrznego i wolności obywatelskich będą głosować nad wspomnianym porozumieniem na najbliższym posiedzeniu.

Tagi

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *