BiznesSztuczna inteligencjaBranża ITPolecane tematy

Sztuczna inteligencja a dane osobowe

AI x PRAWO

Systemy sztucznej inteligencji (AI) do działania potrzebują danych. Wysoka jakość danych ma kluczowe znaczenie dla skuteczności działania wielu systemów AI, w szczególności tych, które stosują techniki trenowania modeli. Zbiory danych treningowych, walidacyjnych i testowych muszą być adekwatne, reprezentatywne i wolne od błędów, a także kompletne z perspektywy przeznaczenia systemu.

Sztuczna inteligencja a dane osobowe

Projekt Aktu o sztucznej inteligencji (AIA) ustanawia szereg wymagań względem zbiorów danych treningowych, walidacyjnych i testowych na podstawie których opracowuje się systemy AI wysokiego ryzyka które wykorzystują techniki obejmujące trenowanie modeli z wykorzystaniem danych. Wymagane jest, aby zbiory te podlegały odpowiednim praktykom w zakresie zarządzania danymi (m.in. gromadzenie danych, badanie pod względem tendencyjności), aby były adekwatne, reprezentatywne, wolne od błędów i kompletne.

Natomiast same systemy AI należy projektować i opracowywać w sposób zapewniający przejrzystość ich działania. Wymagania te korespondują z wymaganiami względem danych osobowych jakie zostały sformułowane w art. 5 RODO, zgodnie z którym dane muszą być m.in. przetwarzane zgodnie z prawem, rzetelnie i w sposób przejrzysty dla osoby której dotyczą, adekwatne, stosowne oraz prawidłowe i w razie potrzeby uaktualniane.

AIA wymaga, by dane były odpowiednio chronione. Systemy muszą być odporne na zagrożenia związane z ograniczeniami systemu, takimi jak błędy, usterki, niespójności, a także na szkodliwe działania takie jak cyberataki np. Data Poisoning, który polega na uzyskaniu dostępu do zbioru danych a następnie zmianie (zatruciu) istniejących tam danych lub wprowadzeniu do zbioru danych zmanipulowanych, co w rezultacie może obniżyć dokładność modelu lub naruszyć jego integralność. Tego rodzaju ataki bywają bardzo trudne do zidentyfikowania, ponieważ wpływ jakie zatrute dane wywierają na działanie modelu mogą być niezauważalne dla jego twórców.

Dane treningowe, walidacyjne i testowe modeli sztucznej inteligencji mogą stanowić dane osobowe. W takiej sytuacji poza wymaganiami wynikającymi z Projektu AIA, niezbędne będzie przestrzeganie przepisów o ochronie danych osobowych (RODO).

Dane treningowe, walidacyjne i testowe a dane osobowe

Dane treningowe, walidacyjne i testowe modeli sztucznej inteligencji mogą stanowić dane osobowe. W takiej sytuacji poza wymaganiami wynikającymi z Projektu AIA, niezbędne będzie przestrzeganie przepisów o ochronie danych osobowych (RODO). Zgodnie z motywem 41 AIA, jego przepisy nie ustanawiają podstawy prawnej do przetwarzania danych osobowych, w tym szczególnych kategorii danych osobowych, a zatem w każdym przypadku niezbędne jest posiadanie podstawy prawnej przetwarzania danych z art. 6 lub 9 RODO.

AIA przewiduje co prawda w tym zakresie wyjątki, wprowadzając chociażby podstawę do przetwarzania szczególnych kategorii danych osobowych oraz danych o karalności w zakresie w jakim jest to ściśle niezbędne do celów zapewnienia monitorowania, wykrywania i korygowania tendencyjności systemów AI wysokiego ryzyka (art. 10 ust. 5) oraz umożliwiając dalsze przetwarzanie danych osobowych na potrzeby opracowywania i testowania określonych systemów sztucznej inteligencji w ramach piaskownicy regulacyjnej AI (art. 54), jednak zasadą pozostaje konieczność posiadania odpowiedniej podstawy prawnej z RODO.

Jeżeli wobec osoby której dane dotyczą jest podejmowana decyzja oparta na zautomatyzowanym przetwarzaniu danych, konieczne jest poinformowanie jej o zasadach podejmowania decyzji, a także o przewidywanych konsekwencjach takiego przetwarzania.

Przetwarzanie danych osobowych w AI a zautomatyzowane podejmowanie decyzji

Z danymi osobowymi możemy mieć także do czynienia w zakresie danych wynikowych modeli AI, jeżeli wynikiem działania systemu jest ich wytworzenie. W zależności od tego jak skonstruowany będzie system sztucznej inteligencji, dostawca lub użytkownik mogą pełnić rolę administratora lub podmiotu przetwarzającego dane osobowe w związku z czym konieczne będzie spełnienie odpowiednich obowiązków wobec podmiotów danych osobowych (m.in. przestawienie klauzuli informacyjnej, uzyskanie zgody).

Przetwarzanie danych osobowych w systemach AI bardzo często będzie wiązało się z profilowaniem w rozumieniu RODO, czyli zautomatyzowanym przetwarzaniem danych osobowych, które polega na wykorzystaniu danych osobowych do oceny niektórych czynników osobowych osoby fizycznej, w szczególności do analizy lub prognozy aspektów dotyczących efektów pracy tej osoby fizycznej, jej sytuacji ekonomicznej, zdrowia, osobistych preferencji, zainteresowań, wiarygodności, zachowania, lokalizacji lub przemieszczania się.

Samo tworzenie profili osób fizycznych nie jest obwarowane szczególnymi wymaganiami. Jest to bardzo częsta praktyka rynkowa która polega chociażby na tworzeniu profili klienta i oferowaniu mu produktów którymi może być zainteresowany. Inaczej przedstawia się sytuacja, jeżeli podstawie profilowania wydawana jest wobec osoby fizycznej decyzja, która opiera się wyłącznie na zautomatyzowanym przetwarzaniu i wywołuje wobec osoby której dane dotyczą skutki prawne lub w podobny istotny sposób na nią wpływa.

Aby wydanie takiej decyzji było zgodne z prawem, niezbędne jest spełnienie jednej z przesłanek opisanych w art. 22 ust. 2 RODO tj.: decyzja jest niezbędna do zawarcia umowy pomiędzy osobą której dane dotyczą a administratorem, jest dozwolona prawem Unii lub państwa członkowskiego lub opiera się na wyraźnej zgodzie osoby, której dane dotyczą. Decyzja taka nie może jednak opierać się na szczególnych kategoriach danych osobowych, chyba że opiera się na wyraźnej zgodzie lub jest niezbędna ze względów związanych z ważnym interesem Unii na podstawie prawa Unii lub państwa członkowskiego.

Zautomatyzowane podejmowanie decyzji nie zachodzi jeżeli system profilujący daną osobą jest jedynie elementem szerszego procesu, w którym bierze również udział człowiek. Jeżeli wobec osoby której dane dotyczą jest podejmowana decyzja oparta na zautomatyzowanym przetwarzaniu danych, konieczne jest poinformowanie jej o zasadach podejmowania decyzji, a także o znaczeniu i przewidywanych konsekwencjach takiego przetwarzania.

Przekazywana podmiotom informacja musi transparentnie informować o przetwarzanych danych oraz sposobie podejmowania decyzji z uwzględnieniem kontekstu przetwarzania, nie ujawniając przy tym tajemnicy przedsiębiorstwa czy know-how. Rekomendacje w tym zakresie wydał brytyjski organ nadzoru (Explaining decisions made with AI - bit.ly/3risSd1).

Ponadto, jeżeli zautomatyzowane podejmowanie decyzji nie jest dozwolone prawem, administrator jest zobowiązany wdrożyć środki ochrony praw i wolności prawnie uzasadnionych interesów osób, której dane dotyczą. Takie środki to co najmniej prawo do uzyskania interwencji ludzkiej ze strony administratora, wyrażenia własnego stanowiska oraz możliwość zakwestionowania decyzji.

W zależności od tego, czy w proces faktycznie zaangażowany jest człowiek, będziemy mieć do czynienia ze zautomatyzowanym podejmowaniem decyzji lub nie. Co ważne, udział człowieka nie może być fikcyjny i polegać np. na podpisaniu decyzji wygenerowanej przez AI.

Należy także pamiętać, że zautomatyzowane podejmowanie decyzji jest jednym z przypadków w którym – poza standardową oceną ryzyka – wymagane jest również przeprowadzenie oceny skutków dla ochrony danych ze względu na to że jest to rodzaj przetwarzania, który może powodować wysokie ryzyko naruszenia praw i wolności osób fizycznych. Taka ocena musi być przeprowadzona przed rozpoczęciem przetwarzania. Jeżeli w wyniku oceny stwierdzone zostanie, że planowane przetwarzanie powodowałoby wysokie ryzyko, gdyby administrator nie zastosował środków w celu jego zminimalizowania, przed rozpoczęciem przetwarzania wymagane jest skonsultowanie się z organem nadzorczym

Przykładem zautomatyzowanego przetwarzania danych osobowych, w którym system ocenia “czynniki osoby fizycznej” jest np. decyzja kredytowa. Może to być jednak każda inna decyzja która istotnie wypływa na osobę, czyli np. przyznanie jej środków socjalnych czy zakwalifikowanie do przyznania (bądź nie) awansu, czy zwolnienia.

W zależności od tego, czy w proces faktycznie zaangażowany jest człowiek, będziemy mieć do czynienia ze zautomatyzowanym podejmowaniem decyzji lub nie. Co ważne, udział człowieka nie może być fikcyjny i polegać np. wyłącznie na podpisaniu decyzji wygenerowanej przez system. Człowiek w takim procesie musi być uprawniony do zmiany lub odrzucenia jego rekomendacji. Ciężar wykazania, że decyzja nie opiera się na wyłącznie zautomatyzowanym przetwarzaniu spoczywa na administratorze.

Data Protection by design i AI Ethics by design

Koncepcja która została zastosowana w RODO polegająca na obowiązku uwzględnienia ochrony danych osobowych w fazie projektowania (Data Protection by design) – dla której pierwowzorem była Privacy by design stworzona przez dr Ann Cavoikian – została przez nią zmodyfikowana pod kątem projektowania systemów AI.

Koncepcja AI Ethics by design podkreśla konieczność poszanowania prywatności i przejrzystości, a jej zasady są następujące:

  • przejrzystość i rozliczalność algorytmów,
  • stosowanie zasad etycznych przy przetwarzaniu danych osobowych,
  • zapewnienie nadzoru i odpowiedzialności za działanie algorytmów,
  • poszanowanie prywatności, jako podstawowego prawa człowieka,
  • ochrona danych jako ustawienie domyślne,
  • proaktywna identyfikacja zagrożeń dla bezpieczeństwa, a tym samym minimalizacja zagrożeń,
  • solidna dokumentacja ułatwiająca etyczne projektowanie i symetrię danych.

Zasady o których mowa w AI Ethics by design zostały implementowane do AI Act.

Aleksandra Piech, radca prawny

Sztuczna inteligencja a dane osobowe

Tagi

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *