Sztuczna inteligencjaBiznes

Wykorzystanie AI przy tworzeniu nowych leków generuje ryzyka prawne

Niska jakość informacji używanych do tworzenia narzędzi opartych o sztuczną inteligencję, błędy w systemach skutkujące złym wynikiem oraz naruszenie wrażliwych danych osobowych – to główne zagrożenia związane z użyciem AI przez firmy farmaceutyczne i biotechnologiczne opracowujące nowe terapie lekowe, uważają prawnicy kancelarii Baker McKenzie. 

Wykorzystanie AI przy tworzeniu nowych leków generuje ryzyka prawne

Najważniejszą regulacją dla europejskich firm używających sztucznej inteligencji będzie AI Act. Rozpoczęcie obowiązywania przepisów tego rozporządzenia jest rozłożone w czasie. Polski regulator aktualnie przygotowuje się do jego implementacji do lokalnego prawa. AI Act i rekomendacje instytucji regulacyjnych opierają się na ocenie ryzyka według skali i zalecają zastosowanie adekwatnych mechanizmów zabezpieczających prawa pacjentów. Rozwiązania najbardziej ryzykowne obarczone są największymi obowiązkami związanymi z transparentnością, kontrolą wewnętrzną, weryfikacją wyniku i odpowiedzialnością za błędy.

“Naszym klientom, którzy już teraz wdrażają technologie oparte na sztucznej inteligencji, zalecamy podobne podejście. Zamiar użycia technologii opartej na AI powinna poprzedzić ocena potencjalnych ryzyk zarówno od strony technologicznej, jak i prawnej” – mówi Martyna Czapska, senior associate w zespole IP Tech w Baker McKenzie. “Przykładowo, chociażby korzystanie z popularnych chatbotów w ramach organizacji dysponującej danymi sensytywnymi powinno odbywać się z namysłem i zachowaniem zasad poufności” – dodaje.

Zalecenia WHO i EMA

Światowa Organizacja Zdrowia (WHO) oraz Europejska Agencja Leków (EMA) wydały swoje zalecenia lub dokumenty kierunkowe dotyczące użycia AI w obszarze zdrowia i badań nad nowymi terapiami lekowymi. Wskazują one również na ryzyka związane z tymi technologiami i zalecają ostrożność w ich stosowaniu. Eksperci Baker McKenzie zwracają uwagę, że napędzana konkurencją branża IT, z dominującą kulturą dążenia do jak najszybszej komercjalizacji rozwiązania, nie przystaje do świata medycyny.

“EMA w swoim oświadczeniu bardzo jasno podkreśla, że rozwojem i wdrażaniem sztucznej inteligencji w obszarze badań nad nowymi lekami powinno kierować podejście skoncentrowane na człowieku. O ile Dolina Krzemowa może działać zgodnie z filozofią „działaj szybko, nawet kosztem błędów”, na takie podejście nie mogą pozwolić sobie firmy biotechnologiczne i farmaceutyczne” – komentuje Juliusz Krzyżanowski, kierujący zespołem ochrony zdrowia w warszawskim biurze Baker McKenzie.

Kluczową kwestią przy korzystaniu z narzędzi opartych na AI, jest fakt, że odpowiedzialność za ewentualne naruszenia praw osób trzecich, poufności lub skutki błędów takiego modelu może w wielu przypadkach spoczywać na użytkowniku. Dlatego też badanie due diligence poprzedzające użycie narzędzia AI powinno uwzględniać ocenę źródeł i jakości danych użytych do trenowania modelu. Dane niekompletne, niewiarygodne, stronnicze lub naruszające prawa osób trzecich mogą prowadzić do niewiarygodnych wyników i generować ryzyka prawne.

RODO i prawa autorskie

Przedsiębiorca powinien zadbać o odpowiednie zapisy w umowie. Gwarancje i zapewnienia ze strony dostawcy co do praw do użytkowania danych zastosowanych na etapie trenowania narzędzia, a także odpowiedzialności za jego działanie. W przypadku udostępnienia systemowi AI wrażliwych informacji o pacjentach, pojawia się ryzyko nieuprawnionego wykorzystania lub ujawnienia informacji poufnych. A niekiedy także danych osobowych. Konieczne jest więc rozstrzygnięcie czy dostawca narzędzia będzie miał prawo przetwarzać te dane i zasilać nimi swój algorytm. A także czy przekazanie ich poza firmę jest niezbędne i zgodne z prawem.

“Kwestie wynikające z RODO, takie jak na przykład podstawa prawna przetwarzania danych, spełnienie obowiązków informacyjnych, minimalizacja gromadzenia i przetwarzania danych do poziomu niezbędnego do realizacji celu przetwarzania, a także prawo do sprzeciwu obowiązują również w odniesieniu do narzędzi opartych o AI” – wskazuje Martyna Czapska.

W obszarze praw autorskich istotna jest również kwestia efektu pracy modelu. Zgodnie z dominującym obecnie podejściem, dzieło wygenerowane przez AI nie jest objęte ochroną prawa autorskiego. Takie prawo może przysługiwać wyłącznie człowiekowi. Efekt pracy modelu AI nie powinien więc być traktowany jako skończony twór, ale inspiracja do dalszej pracy. Ogólna rekomendacja dotycząca zastosowania narzędzi AI przy tworzeniu nowych technologii i terapii medycznych, to udział badaczy oraz kontrola na każdym etapie tworzenia modelu. Od jego trenowania, przez zapewnienie jakości danych, po weryfikację wyniku.

Tagi

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *