Rynek

Prawa autorskie w erze ChatGPT i innych systemów opartych na AI

Obserwowany od jakiegoś już czasu rosnący wzrost popularności aplikacji opartych na sztucznej inteligencji – takich jak ChatGPT lub Dall-E czy Midjourney – stanowi spore wyzwanie w kontekście regulacji prawnych. Istnieje bowiem wiele zastosowań tej technologii, a jej imponujące możliwości rodzą ważne pytania dotyczące nie tylko własności treści, ale także odpowiedzialności za ewentualne nadużycia.

Prawa autorskie w erze ChatGPT i innych systemów opartych na AI

ChatGPT może generować teksty, które będą podlegać ochronie prawnej. Istnieje zatem pytanie, kto w tym przypadku jest właścicielem praw autorskich do wygenerowanych treści: czy jest to twórca modelu AI, osoba, która dostarczyła dane, czy może użytkownik korzystający z systemu? Wiele osób deklaruje, że ChatGPT stworzył im np. opisy na stronę internetową czy fragment pracy informatycznej. Czy takiemu programowi przysługują zatem prawa autorskie?

Polskie prawo autorskie mówi o tym, że chronione jest wszystko, co jest przejawem działalności twórczej, przy czym utwór musi być stworzony przez twórcę. W polskim prawie takim twórcą może być tylko człowiek. Możemy założyć więc, że jeśli po otrzymaniu przez ChatGPT zapytania uzyskamy odpowiedź i przerobimy te dane w taki sposób, aby ostateczny efekt mógł być uznany za utwór w rozumieniu prawa, to wówczas użytkownik ChatGPT będzie twórcą i to jemu będą przysługiwały prawa autorskie do zmodyfikowanego oryginału pochodzącego od sztucznej inteligencji.

“Zgodnie z prawem autorskim, aby coś było objęte ochroną prawną, musi być wytworzone przez człowieka. Tymczasem w przypadku AI, ten twórca pojawia się jedynie w momencie wpisania zapytania, ale nie jest już obecny na etapie otrzymanych wyników. Obecnie to, co generuje system sztucznej inteligencji nie jest w żaden sposób w Polsce uregulowane prawnie. Dlatego ogromnym wyzwaniem będzie stworzenie zmian w obecnych zapisach, a przede wszystkim udzielenie odpowiedzi: kto jest faktycznym twórcą powstałego utworu? Jeśli to zostanie sprecyzowane, wówczas uregulowanie pozostałych zasad będzie o wiele łatwiejsze” – komentuje Konrad Gierula, Regional Legal Counsel Central Europe, Luxoft.

Sztuczna inteligencja a kwestie nadużyć

Kolejnym istotnym aspektem jest odpowiedzialność za wygenerowane treści. Jeśli ChatGPT zostanie użyty do wytworzenia np. treści zniesławiających lub obraźliwych – na kogo wówczas spadnie odpowiedzialność prawna? Czy to użytkownik, który korzysta z AI, ponosi odpowiedzialność za treści wygenerowane przez system czy może twórca samego modelu AI?

W tym kontekście kluczowy jest rozwój narzędzi i algorytmów, które pomogą w identyfikacji i filtrowaniu treści niezgodnych z prawem lub obraźliwych. Konieczne jest inwestowanie w badania i rozwój technologii, które będą w stanie skutecznie wykrywać i ograniczać potencjalne szkody wynikające z wykorzystania ChatGPT i innych systemów opartych na sztucznej inteligencji.

Jednak obecnie to właśnie na użytkownikach spoczywa obowiązek upewnienia się, że sposób, w jaki korzystają z tych treści, nie narusza żadnych przepisów.

“Po pierwsze każda jednostka, która może, chce i widzi ryzyka związane z korzystaniem z systemów AI, powinna na własny wewnętrzny użytek uregulować to w sposób odpowiedni. W firmach mogą być to np. wewnętrzne regulacje systemów AI. Drugim aspektem jest mocna edukacja – szkolenia, nie tylko te związane z wykorzystaniem ChatGPT czy innych systemów AI, ale też te dotyczące poufności danych osobowych, czy tajemnicy przedsiębiorstwa. Regulacje prawne to podstawa, jednak świadomość ludzi dotycząca zagrożeń spowodowanych zbyt daleko idącym zaufaniem do tego, co nam proponuje ChatGPT czy inne narzędzie oparte na AI jest kluczowa, aby wszystko mogło działać poprawnie” – twierdzi Konrad Gierula. “Jeśli tego typu regulacje nie zostaną wdrożone, praktycznie każda organizacja będzie np. musiała podejmować indywidualne działania prawne mające na celu wykazanie, że jest właścicielem prac wykorzystywanych przez sztuczną inteligencję. Wyraźne spisanie tych „zasad” nie dotyczy tylko przedsiębiorstw, ale również państw. Jeśli rządy nie podejmą konkretnych działań regulacyjnych, istnieje zagrożenie, że wszystkie materiały chronione prawem autorskim będą mogły być wykorzystywane przez innych bez zgody pierwotnego autora” – dodaje.

Wykorzystanie Chat GPT i sztucznej inteligencji w kontekście praw autorskich stanowi zatem ogromne wyzwanie, które wymaga uwagi i regulacji. Istnieje potrzeba opracowania odpowiednich ram prawnych dla każdego kraju, które będą chronić prawa autorskie, określać odpowiedzialność za wygenerowane treści oraz promować transparentność i odpowiedzialne wykorzystanie tych technologii.

Tagi

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *