Sztuczna inteligencjaRynekPolecane tematy

Rozporządzenie w sprawie sztucznej inteligencji – AI Act – zatwierdzone!

Zdecydowaną większością głosów Parlament Europejski przyjął dziś AI Act, ustawę która ma chronić podstawowe prawa, demokrację, praworządność i środowisko przed systemami sztucznej inteligencji. Jednocześnie rozporządzenie ma też wspierać innowacje i pomóc sprawić, aby Europa stała się liderem w dziedzinie AI. 523 posłów PE głosowało za przyjęciem ustawy, 46 przeciw, a 49 wstrzymało się od głosu. AI Act najprawdopodobniej zacznie obowiązywać od maja 2025 roku.

Rozporządzenie w sprawie sztucznej inteligencji – AI Act – zatwierdzone!

“To krok milowy, jeśli chodzi o AI. Stawka była wysoka – nikomu wcześniej nie udało się wypracować tak kompleksowego prawa w obszarze sztucznej inteligencji. Dziś to się udało i mamy przed sobą nową rzeczywistość prawną, którą musimy wspólnie zagospodarować” – skomentował wiceminister cyfryzacji Dariusz Standerski.

Nowe przepisy zakazują pewnych zastosowań sztucznej inteligencji, które zagrażają prawom obywateli. Są to między innymi:

  • systemy kategoryzacji biometrycznej, które wykorzystują cechy wrażliwe i nieukierunkowane pobieranie wizerunków twarzy z internetu lub nagrań z telewizji przemysłowej, aby stworzyć bazy danych służące rozpoznawaniu twarzy;
  • rozpoznawanie emocji w miejscu pracy i instytucjach edukacyjnych;
  • klasyfikacja punktowa obywateli;
  • prognozowanie przestępczości wyłącznie na podstawie profilowania osoby lub oceny jej cech;
  • nie będzie też dozwolona sztuczna inteligencja, która manipuluje zachowaniem ludzi lub wykorzystuje ich słabości.

Organom ścigania z reguły nie wolno korzystać z systemów identyfikacji biometrycznej. Są jednak pewne wyjątki, które wąsko zdefiniowano na zamkniętej liście. Organy te mogą wykorzystywać systemy identyfikacji biometrycznej w czasie rzeczywistym tylko wtedy, gdy spełniły ściśle określone warunki. Przykładowo, mogą je stosować w określonym czasie i w określonym położeniu geograficznym. Muszą też posiadać specjalne zezwolenie sądowe lub administracyjne. Mogą je wykorzystywać, by odnaleźć zaginioną osobę lub zapobiegać atakowi terrorystycznemu. Istnieją też tzw. systemy zdalnej identyfikacji biometrycznej post factum. Ich stosowanie wiąże się z wysokim ryzykiem i wymaga zezwolenia sądowego, ponieważ systemy takie wykorzystuje się do wyszukiwania w związku z przestępstwem.

Obowiązki dotyczące systemów wysokiego ryzyka

Szczególne obowiązki określono również dla innych systemów sztucznej inteligencji wysokiego ryzyka. A to dlatego, że stanowią one potencjalne zagrożenie dla zdrowia, bezpieczeństwa, praw podstawowych, środowiska, demokracji czy praworządności. Obszary, w których wykorzystuje się takie systemy, to na przykład:

  • infrastruktura krytyczna,
  • edukacja i szkolenie zawodowe,
  • zatrudnienie,
  • podstawowe usługi prywatne i publiczne (np. opieka zdrowotna, bankowość).

Opierają się też na nich niektóre systemy organów ścigania. Wykorzystuje się je, by zarządzać migracją i granicami oraz na potrzeby wymiaru sprawiedliwości i procesów demokratycznych (np. by wpływać na wybory). Takie systemy muszą oceniać i ograniczać ryzyko oraz prowadzić rejestry zdarzeń. Muszą też być przejrzyste i dokładne oraz podlegać kontroli przez człowieka.

Dzięki rozporządzeniu obywatele będą mieć prawo składać skargi dotyczące systemów AI. Będą także otrzymywać wyjaśnienia decyzji podejmowanych przez systemy sztucznej inteligencji wysokiego ryzyka, które mają wpływ na ich prawa.

Wymogi przejrzystości

Systemy sztucznej inteligencji ogólnego przeznaczenia i modele AI ogólnego przeznaczenia, na których oparte są takie systemy, muszą spełniać określone wymogi przejrzystości i być zgodne z unijnym prawem autorskim  oraz publikować dokładne zestawienia materiałów użytych podczas trenowania swoich modeli. Najbardziej zaawansowane modele sztucznej inteligencji ogólnego przeznaczenia, które mogą stwarzać ryzyko systemowe, będą musiały spełniać dodatkowe wymagania. Operatorzy AI będą musieli między innymi przeprowadzać oceny modeli, oceniać i ograniczać ryzyko systemowe i zgłaszać incydenty.

Ponadto należy wyraźnie oznaczać nieautentyczne lub zmanipulowane obrazy, treści audio lub wideo, tzw. deepfakes.

Działania wspierające innowacje i MŚP

Jak wynika z AI Act, należy ustanowić na szczeblu krajowym piaskownice regulacyjne, czyli środowisko ułatwiające opracowywanie i testowanie innowacyjnych systemów sztucznej inteligencji przed wprowadzeniem do obrotu, oraz testowanie w warunkach rzeczywistych. Należy też zapewnić MŚP i przedsiębiorstwom typu start-up łatwy dostęp do nich. Dzięki temu będzie można opracowywać i trenować innowacyjne systemy AI przed wprowadzeniem na rynek.

Kolejne kroki

Przyjętę dziś rozporządzenie muszą jeszcze ostatecznie zweryfikować prawnicy lingwiści. Ma ono zostać przyjęte przed końcem kadencji (tzw. procedura sprostowania). Rozporządzenie musi też formalnie przyjąć Rada Europejska.

Rozporządzenie wejdzie w życie dwadzieścia dni po publikacji w Dzienniku Urzędowym, a w pełni obowiązywać będzie 24 miesiące po jego wejściu w życie. Wyjątki to:

  • zakazy niedozwolonych praktyk (będą obowiązywać sześć miesięcy po wejściu rozporządzenia w życie),
  • kodeksy postępowania (dziewięć miesięcy po wejściu w życie),
  • przepisy o sztucznej inteligencji ogólnego przeznaczenia, w tym dotyczące zarządzania (12 miesięcy po wejściu w życie),
  • obowiązki dotyczące systemów wysokiego ryzyka (36 miesięcy po wejściu w życie).

Pod poniższym linkiem znajduje się pełna treść ustawy AI Act.

Tagi

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *