CDO
Nieoczywiste ograniczenia wykorzystania AI – regulacja UE w zakresie sztucznej inteligencji
Z reguły impulsem do regulacji danej branży jest dramatyczne wydarzenie pokazujące skutki braku wprowadzenia i przestrzegania odpowiednich zasad. Przykładem może być afera związana z lekiem „Talidomid”, która doprowadziła do szybkiego rozwoju prawa farmaceutycznego. Każda, kolejna katastrofa lotnicza powodowała pojawienie się coraz to nowych procedur. W przypadku sztucznej inteligencji (AI) proces jest odwrotny. Zanim jeszcze na dobre wkroczyła w nasze życie i zanim doszło do groźnego zdarzenia, w różnych częściach świata trwają już prace nad regulacjami jej wykorzystania. Potencjał technologii AI jest jednak szczególny…
Pojęcie sztucznej inteligencji i jej definicji zmieniało się wraz z jej rozwojem. Początkowo, aby zasłużyć na to miano wystarczyło, żeby algorytm potrafił rozwiązywać zadania logiczne, np. grać w szachy. Wraz z rozwojem technologii poprzeczka wędrowała coraz wyżej. W momencie, kiedy powstaje ten artykuł istnieją już algorytmy AI skutecznie naśladujące działanie ludzkiego mózgu. Prym wiedzie tu technologia głębokich sieci neuronowych. Brakuje jednak legalnej definicji sztucznej inteligencji oraz szczegółowych regulacji w zakresie zasad jej tworzenia i wykorzystania.
Największe wady AI, które należy uregulować
Mimo to, coraz częściej sztuczna inteligencja przychodzi nam z pomocą, kiedy ilość danych jakie mają być przetworzone przekracza możliwości człowieka. Algorytm znajdzie najlepsze rozwiązanie szybciej niż jest w stanie zrobić to człowiek. Co prawda, działanie algorytmu w dalszym ciągu sprowadzić można w zasadzie do rozwiązania działania matematycznego, ale jest to działanie tak skomplikowane i z tak dużą ilością zmiennych, że na jego rozwiązanie często nie starczyłoby ludzkiego życia. Algorytmy wolne są od ograniczeń typowych dla ludzi. Nie muszą spać, nie ulegają zmęczeniu i – co wydaje się najbardziej pożądane – są wolne od uprzedzeń i emocji. Wydaje się więc, że mogą być idealne w rozwiązywaniu sporów w tym prawnych, a spektrum ich zastosowania jest bardzo szerokie. Jest jednak druga strona medalu i to, co pozornie wydaje się zaletą sztucznej inteligencji jest też jej największą wadą, którą dostrzegają decydenci w różnych częściach świata w tym także w Unii Europejskiej.
Po pierwsze, skoro algorytm jest w stanie znaleźć rozwiązanie poprzez wykonanie działania jakie człowiekowi zabrałoby kilkaset lat, to w jaki sposób prześledzić poprawność wykonanej operacji i jej zgodność z prawem. W zasadzie całe uzasadnienie decyzji podjętej na podstawie wykorzystania sztucznej inteligencji sprowadzałoby się do wskazania, że do takich wniosków doszedł algorytm. Oznaczałoby to wprowadzenie zasady totalnego zaufania wobec maszyny, bo przecież nawet nie wobec jej twórców, gdyż algorytm ma działać autonomicznie. Kontrola nad zgodnością z prawem działania algorytmu byłaby iluzoryczna. W zasadzie musielibyśmy zgodzić się na to, że uzasadnienia decyzji nigdy nie poznamy, a zatem z czasem to algorytmy, a nie ludzie zaczęliby tworzyć zasady, według których żyjemy.
Jest druga strona medalu i to, co pozornie wydaje się zaletą sztucznej inteligencji jest też jej największą wadą, którą dostrzegają decydenci w różnych częściach świata w tym także w Unii Europejskiej. Po pierwsze, skoro algorytm jest w stanie znaleźć rozwiązanie poprzez wykonanie działania jakie człowiekowi zabrałoby kilkaset lat, to w jaki sposób prześledzić poprawność wykonanej operacji i jej zgodność z prawem. Po drugie, prawo w wielu przypadkach nakłada obowiązek działania, który nie zawsze wynika z prostych zasad logiki. Po trzecie, kwestia wolności od uprzedzeń też nie jest tak do końca oczywista.
Po drugie, prawo w wielu przypadkach nakłada obowiązek działania, który nie zawsze wynika z prostych zasad logiki. Nawet najbardziej zaawansowane algorytmy nie znają pojęcia sprawiedliwości, empatii czy też konieczności przeciwdziałania dyskryminacji. Nasz system prawny ostatecznie zbudowany jest na pewnych wartościach, które mają pierwszeństwo przed zapewnieniem efektywności ekonomicznej. Innymi słowy, godzimy się na to, że nie zawsze ekonomiczny zysk ma pierwszorzędne znaczenie. Ważniejsze jest zapewnienie sprawiedliwych zasad. W końcu, najczęściej role w jakich występujemy zmieniają się. Kierowcy są jednocześnie pieszymi, wierzyciele też są dłużnikami (mają swoich wierzycieli), wszyscy kiedyś się zestarzejemy, wszyscy możemy ulec wypadkowi lub stracić majątek w wyniku nieszczęśliwego wypadku.
Jak zapobiec dyskryminacji przez algorytm?
Z tego powodu, aby zapewnić równość wobec prawa – a co za tym idzie równość szans – system prawny wprowadza szereg ograniczeń, które nie zawsze prowadzą do wyników optymalnych pod względem kosztów i zysków. Tytułem przykładu, przy ustalaniu wiarygodności kredytowej nie można uwzględniać kryteriów, które stwarzałyby ryzyko dyskryminacji z uwagi np. na pochodzenie, stan zdrowia, orientację seksualną, religię. Prowadziłoby to do ograniczenia dostępności kapitału pewnych grup społecznych, a w konsekwencji do zwiększenia nierówności. Określone grupy mogłyby korzystać z kapitału zgromadzonego w bankach przez innych, podczas gdy, pozostali – ocenieni gorzej przez algorytm – tej możliwości byliby pozbawieni. Algorytm teoretycznie wolny jest od uprzedzeń, ale obce są mu również pojęcia takie, jak sprawiedliwość czy równość wobec prawa.
Po trzecie, kwestia wolności od uprzedzeń też nie jest tak do końca oczywista. Co prawda, algorytm nie chowa urazy i nie będzie szukał zemsty. Z drugiej jednak strony algorytmy szybko się uczą i potrafią imitować procesy takie, jak uogólnianie czy wyciąganie wniosków. Proces „uczenia się” oparty jest na danych jakie zostaną mu dostarczone. W konsekwencji często może zadziałać mechanizm nazywany „sprzężeniem zwrotnym”. Wuproszczeniu, trzymając się przykładu ustalania wiarygodności kredytowej, algorytm z czasem nauczyłby się, że pewne grupy społeczne mają mniejszą wiarygodność i częściej niż inne nie spłacają zaciągniętych zobowiązań. Nie będzie przy tym wnikał w to, czy jest to efekt ich dyskryminacji z przeszłości, gorszego położenia, dziedziczenia biedy itd. Innymi słowy, czy wynikało to z okoliczności, na które mieli wpływ.
Nawet jeśli wprowadzone byłby ograniczenia w podawaniu tych danych jako danych wyjściowych, to algorytm szybko nauczyłby się wnioskować i szukać korelacji o danych wrażliwych na podstawie innych informacji (np. miejsce zamieszkania, imienia typowego dla danej grupy etnicznej, wyznania, języka, akcentu, typowych błędów ortograficznych i gramatyczne, lokalnej gwary). W ten sposób, np. osoba pochodzenia romskiego – nawet jeśli zdobędzie dobrą pracę – będzie w gorszej sytuacji niż inne tylko dlatego, że w przeszłości inne osoby z jej grupy etnicznej spotykały się z szeregiem uprzedzeń.
Nawet jeśli wprowadzone byłby ograniczenia w podawaniu tych danych jako danych wyjściowych, to algorytm szybko nauczyłby się wnioskować i szukać korelacji o danych wrażliwych na podstawie innych informacji (np. miejsce zamieszkania, imienia typowego dla danej grupy etnicznej, wyznania, języka, akcentu, typowych błędów ortograficznych i gramatyczne, lokalnej gwary). W ten sposób, np. osoba pochodzenia romskiego – nawet jeśli zdobędzie dobrą pracę – będzie w gorszej sytuacji niż inne tylko dlatego, że w przeszłości inne osoby z jej grupy etnicznej spotykały się z szeregiem uprzedzeń. Działałoby tu prawo wielkich liczb i w efekcie algorytm utrwaliłby, a nawet pogłębiał nierówności istniejące obecnie.
O tym, że jest to praktyczny problem przekonało się Ministerstwo Spraw Wewnętrznych Wielkiej Brytanii. Jak wykazały w 2020 roku dwie organizacje pozarządowe w postępowaniu sądowym, używany do oceny wniosków wizowych algorytm stosował kryteria rasistowskie[1]. Ministerstwo Spraw Wewnętrznych zapowiedziało wprowadzenie zmian. Podobna sytuacja miała miejsce w przypadku algorytmu stworzonego na potrzeby wyszukiwarki Google, który imiona kojarzone typowo z osobami czarnoskórymi częściej wiązał ze stronami nawiązującymi do historii kryminalnej[2]. Jedną z przyczyn mogło być to, że sztuczna inteligencja nauczyła się podsuwać najpopularniejsze skojarzenia i tym samym odbijać jak w zwierciadle lęki i uprzedzenia funkcjonujące w społeczeństwie.
Biała księga w sprawie sztucznej inteligencji
Wszystkie te słabe punkty występują przy założeniu, że algorytm będzie tworzony w dobrej wierze. Jeszcze bardziej niepokojąca wydaje się sytuacja, kiedy sztuczna inteligencja będzie rozwijana z myślą o obejściu prawa lub nawet złamaniu prawa, manipulacji procesem wyborczym lub prawem do sądu. Jeżeli nie będziemy w stanie w czasie ludzkiego życia sprawdzić poprawności działania algorytmu (może być celowo zbyt mało przejrzysty) to obowiązujące prawo będzie warte co najwyżej tyle co papier, na którym wydrukowano dany akt. Algorytmy z łatwością mogą losować sędziów w taki sposób, aby było to wygodne dla politycznych decydentów. Algorytmy mogą tworzyć animacje do złudzenia przypominające żywych ludzi wkładając im w usta słowa, których nigdy nie powiedzieli (tzw. deep fake). Co więcej, mogą znaleźć zastosowanie w dziedzinach, przy których brak kredytu wydaje się drobną niedogodnością. Jeżeli algorytmy zostaną wykorzystane przy analizie podstaw do odebrania rodzicom dziecka z uwagi na przemoc to skutki błędów mogą być trudne do odwrócenia.
Z jednej więc strony, całkowity zakaz wykorzystywania AI spowoduje, że europejska gospodarka zostanie w tyle i z czasem stanie się technologicznie zacofana. Z drugiej jednak, brak odpowiedniej regulacji naraża podstawowe wartości, na jakich zbudowany jest system prawny Unii Europejskiej, a z czasem może podważyć sens istnienia samego prawa. Aby temu zapobiec Komisja Europejska tzw. białą księgę w sprawie AI. Określono w niej warianty strategiczne dotyczące tego, jak osiągnąć podwójny cel, jakim jest promowanie upowszechniania sztucznej inteligencji i przeciwdziałanie zagrożeniom związanym z niektórymi zastosowaniami takiej technologii. Dokument ten stanowi pewną zapowiedź kierunkowych rozwiązań w zakresie regulacji rynku sztucznej inteligencji. Podobne dokumenty przygotowały inne państwa. W USA są to wytyczne w sprawie regulacji AI. Opracowania te pokazują szereg problemów z jakimi zmierzyć muszą się prawnicy.
Ocena ryzyka działania sztucznej inteligencji
Rozwijając wytyczne zawarte w białej księdze Komisja Europejska opublikowała dotyczący Rozporządzenia regulującego wykorzystanie sztucznej inteligencji[3]. Zgodnie z projektem przewidziano wprowadzenie definicji legalnej „systemu sztucznej inteligencji”. Zgodnie z tą definicją ma to być system wykorzystujący jedną z technologii wskazanych w załączniku. Tego rodzaju podejście już na pierwszy rzut oka ma jednak słaby punkt. Przy takiej konstrukcji definicja nie będzie obejmować technologii nieznanych w chwili przygotowania rozporządzenia. Co prawda, załącznik będzie mógł być z czasem nowelizowany, jednak zawsze siłą rzeczy będzie to działanie spóźnione.
W odniesieniu do systemów sztucznej inteligencji wysokiego ryzyka spełnienie wymagań prawnych zostanie sprawdzone w ramach procedur oceny zgodności. Przewidywać można, że będzie wprowadzony system oceny zgodności przy wykorzystaniu jednostek notyfikowanych. Podobnie, jak w przypadku wyrobów medycznych – przed wprowadzeniem do obrotu – konieczne będzie uzyskanie znaku CE. Jednostka notyfikowana w odpowiedniej procedurze oceny zgodności sprawdzi czy stworzony algorytm nie narusza prawa i może bezpiecznie zostać wprowadzony na rynek.
Projekt zakłada stosowanie różnych zasad w zależności od oceny ryzyka. Technologie sztucznej inteligencji mają zostać podzielone na klasy ryzyka podobnie, jak ma to miejsce w przypadku wyrobów medycznych. Stopień regulacji będzie uzależniony do ryzyka, jakie technologia za sobą niesie. Zakładany podział będzie przewidywał technologie AI zabronione, technologie wysokiego i niskiego ryzyka. Zabronione będzie wykorzystywanie technologii sztucznej inteligencji służącej do podprogowego zniekształcania zachowania, wykorzystującej słabe punkty określonej grupy osób ze względu na wiek, niepełnosprawność fizyczną lub umysłową. Co więcej, niedozwolone będzie wykorzystanie AI do klasyfikacji wiarygodności osób fizycznych na podstawie ich zachowań społecznych, a także do identyfikacji biometrycznej w czasie rzeczywistym w miejscach publicznych. W tym ostatnim przypadku przewidziano kilka wyjątków dotyczących takich szczególnych sytuacji, jak zaginięcie dzieci czy przeciwdziałanie terroryzmowi.
Certyfikat zgodności dla algorytmów AI
W odniesieniu do systemów sztucznej inteligencji wysokiego ryzyka spełnienie wymagań prawnych zostanie sprawdzone w ramach procedur oceny zgodności. Przewidywać można, że będzie wprowadzony system oceny zgodności przy wykorzystaniu jednostek notyfikowanych. Podobnie, jak w przypadku wyrobów medycznych – przed wprowadzeniem do obrotu – konieczne będzie uzyskanie znaku CE. Jednostka notyfikowana w odpowiedniej procedurze oceny zgodności sprawdzi czy stworzony algorytm nie narusza prawa i może zostać wprowadzony na rynek. Potwierdzone to zostanie certyfikatem zgodności.
Co do zasady, za system wysokiego ryzyka, zostaną uznane te systemy, które stanowią element bezpieczeństwa produktu, albo same stanowią produkt, który wymaga takiej oceny (np. są wyrobem medycznym). Dodatkowo, za systemy wysokiego ryzyka zostaną uznane te, które będą wskazane w załączniku do rozporządzenia. Chodzi tu o systemy sztucznej inteligencji wykorzystywane m.in. w wymiarze sprawiedliwości, do zarządzania migracją, egzekwowania prawa, dostępu do edukacji oraz do zarządzania infrastrukturą krytyczną.
Projekt rozporządzenia przewiduje nałożenie ograniczeń na swobodę prowadzenia działalności gospodarczej oraz wolność sztuki i nauki, aby zapewnić zgodność z nadrzędnymi względami interesu publicznego takimi, jak zdrowie, bezpieczeństwo, ochrona konsumentów i innych praw podstawowych, gdy opracowywana i stosowana jest technologia sztucznej inteligencji wysokiego ryzyka.
Ograniczenia w swobodzie wykorzystania AI w działalności gospodarczej
Ograniczenia w swobodzie działalności przedsiębiorców raczej są nie do uniknięcia przy tak głębokiej regulacji. Co prawda, najczęściej wiążą się z dodatkowymi kosztami, jednak na dłuższą metę niekoniecznie są one czymś negatywnym. Dobrym przykładem jest tutaj regulacja dotycząca ochrony danych osobowych w Unii Europejskiej wprowadzona jako rozporządzenie UE o znanym skrócie „RODO”. Uregulowanie ochrony danych osobowych na poziomie Unii Europejskiej mimo tego, że zawierało szereg dodatkowych (często uciążliwych obowiązków) w dużej mierze pozwoliło na rozwój telemedycyny.
Potrzebę rozwoju medycyny zdalnej pokazała epidemia COVID-19. Dane wrażliwe na temat zdrowia bez należytej ochrony byłyby cennym źródłem informacji dla wielu przedsiębiorców, szczególnie ubezpieczycieli. Na podstawie stanu zdrowia można np. optymalizować wysokość składki, co skutecznie zrobiłby algorytm. Zyski ubezpieczycieli pewnie byłyby w ten sposób większe. Pytanie jednak, czy aby na pewno chcielibyśmy żyć w świecie, w którym, o wysokości składki na ubezpieczenie decyduje nasz stan zdrowia, o którym ubezpieczyciel wie praktycznie wszystko? Co więcej, będzie w stanie ocenić ryzyko wystąpienia pewnych chorób na podstawie wyników naszych badań i historii korzystania z sytemu opieki zdrowotnej? Czy perspektywa zapłaty wyższej składki lub odmowy uzyskania ubezpieczenia nie zniechęci skutecznie wielu osób od wizyty u lekarza?
Konieczny dostęp do informacji poufnych lub kodu źródłowego
W ramach konsultacji, najwięcej zarzutów dotyczyło – oprócz dość niejasnej definicji sztucznej inteligencji – równie mało precyzyjnej definicji „ryzyka”, „wysokiego ryzyka”, „niskiego ryzyka”, „zdalnej identyfikacji biometrycznej” i „szkody”. Pewnym dodatkowym problemem jest też wpływ nowych regulacji na ochronę tajemnicy przedsiębiorstwa. Przedsiębiorcy będą musieli liczyć się z tym, że staną przed koniecznością ujawnienia organom administracji oraz innym przedsiębiorcom (np. jednostką notyfikowanym) części know-how. Władze publiczne i jednostki notyfikowane będą musiały uzyskać dostęp do informacji poufnych lub kodu źródłowego, w celu zbadania zgodności z prawem w tym przejrzystości rozwiązań. Co prawda, zwiększone obowiązki w tym zakresie mają być proporcjonalne do zagrożenia. jednak czy tak faktycznie będzie okaże się w praktyce?
Przedsiębiorca, który stanie w obliczu pokazania swojej tajemnicy wiedząc, że nie będzie ona dostatecznie mocno chroniona może stracić motywację do rozwoju technologii. Z drugiej strony bez odpowiedniego nadzoru ucierpią podstawowe wartości, na jakich zbudowana jest Unia Europejska. Prawo do sądu, wolność od dyskryminacji, demokracja, praworządność z reguły są doceniane w momencie, kiedy zostają utracone. Aby tak się nie stało – a Unia Europejska nie była technologiczną prowincją – prawnicy starają się pogodzić ogień z wodą szukając takiego wyjścia, aby zjeść ciastko i mieć ciastko. Czy to się uda i w jakim kształcie nowe regulacje wejdą w życie? Czas pokaże.
Dariusz Tarabasz, adwokat w kancelarii Czyżewscy Kancelaria Adwokacka, członek Izby Adwokackiej w Warszawie, reprezentuje klientów Kancelarii w postępowaniach przed sądami powszechnymi i administracyjnymi; prowadzi sprawy przed Sądem Najwyższym i Naczelnym Sądem Administracyjnym.
Tomasz Tarabasz, programista, absolwent Politechniki Warszawskiej, entuzjasta sztucznej inteligencji i nowych technologii. Zawodowo związany z tworzeniem oprogramowania dla sektora bankowego.
[2] Źródło: https://www.bbc.com/news/technology-21322183
[3] https://eur-lex.europa.eu/legal-content/EN/TXT/?qid=1623335154975&uri=CELEX%3A52021PC0206