BiznesSztuczna inteligencjaBranża ITPolecane tematy

Trudne związki sztucznej inteligencji i prawa autorskiego

RAPORT 4xAI

Jeszcze nie tak dawno prawo autorskie najczęściej kojarzone było z obszarami twórczymi: sztuką, literaturą, obrazami, muzyką, twórczością artystyczną czy sporami o plagiat z pierwszych stron gazet. Współcześnie o prawie autorskim mówi się przede wszystkim w kontekście gier i programów komputerowych. I słusznie, bo prawo autorskie stanowi instrument ochrony szerokiego spektrum obiektów niematerialnych.

Trudne związki sztucznej inteligencji i prawa autorskiego

Ostatnio nie brakuje tematu prawa autorskiego, właśnie za sprawą sztucznej inteligencji. Jest to nowa technologia osadzona w świecie matematyki i technologii IT. Wydawałoby się zatem, że prawo autorskie jest idealnym instrumentem ochrony AI i jej wytworów, jako naturalna konsekwencja wcześniejszego umieszczania w ramach prawnoautorskich programów komputerowych czy szeroko rozumianego świata internetu.

Jednakże złożoność AI powoduje, że taki wniosek jest zdecydowanie przedwczesny. Nie sposób w kontekście AI i prawa autorskiego nie wspomnieć, że początek 2023 roku można określić jako czas generatywnej sztucznej inteligencji. Zadajemy AI pytania, AI pisze za nas maile lub wypracowania, tworzy obrazy na podstawie napisanej przez nas instrukcji. Pierwsza fascynacja generatywną AI – jako ciekawym gadżetem – powoli mija. Ale jej popularność nie słabnie.

Generatywna AI weszła do naszej codzienności już nie jako nowinka techniczna, a narzędzie o wielorakich zastosowaniach. Wraz z tą popularnością jednak narastają pytania i wątpliwości dotyczące funkcjonowania prawa autorskiego w całym procesie. Są to zasadniczo te same wątpliwości, które towarzyszyły nam wcześniej przy mniej nagłaśnianych medialnie, ale nie mniej istotnych problemach związanych z wąską AI (przygotowaną i trenowaną do rozwiązywania zadań określonego typu).

W artykule poruszymy 3, najważniejsze wątki dotyczące relacji AI i prawa autorskiego. Omówimy, jak powinno być postrzegane w świetle prawa autorskiego wykorzystywanie utworów w procesie trenowania AI, jaki jest prawnoautorski status dzieł wygenerowanych przez AI oraz w jakim zakresie prawo autorskie może mieć zastosowanie do ochrony samych modeli AI.

Aby obiekt niematerialny został objęty ochroną prawnoautorską, musi być bezpośrednim wytworem intelektu człowieka. Tymczasem model AI nie jest tylko wytworem ludzkim. Jego powstanie wymaga zainicjowania i przeprowadzenia określonych procesów przez ludzi, ale jest wypadkową działania algorytmów i danych.

1. Natura prawna modelu AI

Zacznijmy od początku, czyli czy sam model sztucznej inteligencji (popularnie utożsamiany z AI) jest w ogóle chroniony przez prawo autorskie? Skąd w ogóle problem?

Wynika od z zestawienia dwóch czynników:

1. Prawo autorskie jest ukształtowane w oparciu o naczelny paradygmat człowieka-twórcy, którego łączy z jego utworem specjalna więź. Utwór bowiem ma być właściwie odzwierciedleniem indywidualnej, twórczej pracy umysłu twórcy. Zasada ta nie jest co prawda wyrażona wprost w polskiej ustawie, ani w międzynarodowych konwencjach (choć pojawia się np. w hiszpańskiej ustawie), ale jest wyinterpretowana z całokształtu regulacji prawnoautorskich, w tym z przesłanek ochrony utworów. W pewnym uproszczeniu można powiedzieć, że twórcy ustaw i konwencji międzynarodowych nt. prawa autorskiego uważali to po prostu za prawniczy truizm, który nie wymaga marnowania tuszu drukarskiego.

2. Model AI to struktura obliczeniowa obejmująca określone zestawy parametrów, reguł lub funkcji wynikająca z wytrenowania odpowiednich algorytmów danymi. Sam trening AI nie jest operacją programowania czy parametryzacji prowadzoną przez człowieka – to proces, w którym generujący się model samodzielnie dostosowuje wewnętrzne parametry, aby zminimalizować błędy lub różnice między jego przewidywaniami a oczekiwanymi wartościami. Wniosek? Model AI, jako pewien wytwór niematerialny, nie jest w ogóle bezpośrednio zdeterminowany przez człowieka.

Naturalnie nasuwającymi się pytaniami jest, czym zatem w świetle prawa jest model AI? I czy komuś przysługują do niego jakiekolwiek prawa? Niestety, brakuje jasnej odpowiedzi. W przyszłości można by postulować tzw. prawo sui generis, czyli prawa chroniącego modele AI w sposób podobny do prawa autorskiego, ale niezależny od niego.

Z zestawienia powyższych czynników wynika, że aby dany obiekt niematerialny został objęty ochroną prawnoautorską, musi być bezpośrednim wytworem intelektu człowieka. Tymczasem model sztucznej inteligencji nie jest tylko wytworem ludzkim. Jego powstanie wymaga zainicjowania i przeprowadzenia określonych procesów przez ludzi –ci ludzie zazwyczaj nie determinują kształtu modelu AI – ale jest, co do zasady, wypadkową działania algorytmów i danych.

Naturalnie nasuwającymi się pytaniami jest, czym zatem w świetle prawa jest model AI? I czy komuś przysługują do niego jakiekolwiek prawa? Niestety, brakuje jasnej odpowiedzi. W przyszłości można by postulować powołanie tzw. prawa sui generis do modeli AI, czyli prawa chroniącego modele AI w sposób podobny do prawa autorskiego, ale niezależny od niego. Wymagający spełnienia specyficznych przesłanek, ale abstrahując kompletnie od definicji utworu. Przykładem istniejącego prawa sui generis jest prawo do baz danych z ustawy o ochronie baz danych. Kto miałby być uprawniony do modelu AI z prawa sui generis? Można by sądzić, że podmiot, który poniósł główny wysiłek ekonomiczny powstania modelu, a więc „zamawiający”.

Zastrzegamy, że nasza opinia negująca możliwość objęcia modeli AI ochroną prawnoautorską jest tylko oceną. Nie można wykluczyć nigdy, że:

1. Pewnego dnia polski lub unijny sąd dokona (opartej o mniej lub bardziej wnikliwy tok rozumowania) odmiennej oceny i nie będzie miał nic przeciwko objęciu prawem autorskim modelu AI. Stworzy w ten sposób precedens, do którego trzeba będzie się odnosić.

2. Ustawodawca polski lub unijny, zamiast tworzyć prawo sui generis do modeli AI, dokona takiej zmiany prawa autorskiego, że modele AI zostaną „siłą” wtłoczone w jej reżim.

Zajście jednego z ww. wypadków miałoby w naszej ocenie negatywne konsekwencje dla prawa autorskiego i przyspieszyłoby jego dalszą erozję. Nie pasowałoby to do innych utworów, zaprzeczając logicznie dotychczas ukształtowanym zasadom ich ochrony. Rodziłoby się też szalenie trudne do przesądzenia pytanie, kto miałby być twórcą, a więc podmiotem uprawnionym autorsko do takiego modelu? Programista lub matematyk tworzący inteligentne algorytmy? Data scientist prowadzący trening? Niemożliwe jest wręcz udzielenie odpowiedzi na to pytanie. Pokazuje to skalę problemów, jakie może przynieść nieprzemyślana decyzja sądowa lub ustawodawcza w kontekście wtłoczenia modeli AI w reżim prawa autorskiego.

Niezależnie – na tę chwilę – kontraktując dostarczenie modelu AI (o czym jest mowa szerzej w artykule „Jak zakontraktować projekt na wdrożenie algorytmów AI”) konieczne jest przygotowanie mechanizmów kontraktowych zabezpieczających nabywcę praw do AI (jakie by one nie były) na możliwe przyszłe scenariusze.

Ustawy o prawie autorskim i prawach pokrewnych wymienia szereg rodzajów eksploatacji utworów, który został podzielony na trzy grupy: utrwalanie i zwielokrotnianie, obrót oraz rozpowszechnianie. Czy trenowanie AI z wykorzystaniem utworów mieści się w którejś z tych grup. W naszej opinii tak, zwielokrotniania.

2. Trenowanie modelu AI

Skoro była już mowa o modelach AI, warto cofnąć się krok wstecz i omówić prawnoautorskie kwestie „karmienia” tego algorytmu danymi. Wysoce prawdopodobne jest, że w zestawie danych służących do treningu pojawią się treści stanowiące utwory, które są objęte ochroną prawa autorskiego. Utwory te, w celu „nasycenia” nimi modelu, będą musiały zostać przetworzone. Dlaczego? W procesie trenowania sztucznej inteligencji utwór zrozumiały człowiekowi musi zostać przetworzony na język zrozumiały AI. W tym celu konieczne jest przekształcenie danych w wektory liczb. Dopiero takie zwektorowane dane będą analizowane przez AI w czasie procesu uczenia (Z. Okoń; Wykorzystanie utworów dla potrzeb głębokiego uczenia w świetle europejskiego prawa autorskiego [w:] Sztuczna Inteligencja, blockchain, cyberbezpieczeństwo oraz dane osobowe. Zagadnienia wybrane. (red.) K. Flaga-Gieruszyńska, J. Gołaczyński, D. Szostek, Warszawa 2019, s. 105).

Kiedy ludzie uczą się nowego języka, przechowują wiedzę, którą zdobyli jako ślad elektrochemiczny w obszarze mózgu poświęconym językowi. Co oczywiste, nawet Ci z pamięcią fotograficzną nie potrzebują do tego wyjątku od prawa autorskiego (samo zapoznanie się z utworem nie jest reglamentowane przez prawo autorskie). Nie jest już jednak wcale jasne, czy, kiedy komputer tworzy cyfrową kopię materiału szkoleniowego w celu nauki języka, czynność ta będzie również wyłączona z domeny prawa autorskiego. Wręcz przeciwnie, zazwyczaj każda kopia cyfrowa, tymczasowa lub stała, w całości lub w części, bezpośrednia lub pośrednia, może potencjalnie naruszać prawo autorskie (T. Margoni, Artificial Intelligence, Machine learning and EU copyright law: Who owns AI?, CREATe Working Paper 2018/12, bit.ly/3JnApgP, s. 3).

Oczywiście, mowa tu wyłącznie o sytuacji, w której dana baza danych zawiera w sobie utwory (często nie jest to niestety wiadome). Jeśli dostępna baza jest oznaczana jako niezawierająca elementów prawnoautorskich (składa się np. z danych meteorologicznych), problem nie powstaje.

Zgodnie z prawem autorskim, aby korzystać z utworu, do którego autorskie prawa majątkowe przysługują osobie trzeciej, powinniśmy uzyskać na to licencję. Pod polskim prawem konieczne jest przy udzielaniu licencji oznaczenie pól eksploatacji, czyli sposobów korzystania z utworu. Art. 50 Ustawy o prawie autorskim i prawach pokrewnych wymienia szereg rodzajów eksploatacji utworów, który został podzielony na trzy grupy: utrwalanie i zwielokrotnianie, obrót oraz rozpowszechnianie. I tutaj pojawia się pytanie, czy trenowanie AI z wykorzystaniem utworów mieści się w którejś z tych grup. W naszej opinii tak. Powinno być kwalifikowane jako zwielokrotnianie. Czyli, aby np. nauczyć sztuczną inteligencję komponowania muzyki w stylu Beyonce, najpierw teoretycznie trzeba by Beyonce spytać o zgodę i zapłacić.

Najbezpieczniejszą więc opcją dla podmiotów rozwijających AI byłyby rozwiązania umowne i uzyskiwanie licencji na utwory wykorzystywane w procesie uczenia, co niemal zawsze oznacza ponoszenie opłat licencyjnych. W praktyce może się to okazać trudne do realizacji z uwagi na znaczne ilości danych, które są wykorzystywane w treningu AI.

Czy jest to jedyna możliwość? Otóż nie, prawo autorskie przewiduje szereg przypadków, które pozwalają na korzystanie z utworu bez konieczności zwracania się o zgodę do twórcy. Łącznie nazywa się je instytucją dozwolonego użytku. Zalicza się do niego m.in. cytowanie czy korzystanie z utworów na potrzeby edukacyjne. Każdorazowo jednak posłużenie się instytucją dozwolonego użytku wymaga od dysponenta utworu spełnienia szeregu warunków. Wobec zwielokrotniania utworu w procesie uczenia zastosowanie mogłyby mieć potencjalnie dwa rodzaje wyjątków mieszczących się w ramach dozwolonego użytku. I choć nie pojawiają się one jeszcze w polskiej ustawie to zostały wprowadzone w dyrektywach unijnych. Dyrektywy są skierowane do państw i powinny być implementowane do ich porządków prawnych, jeśli jednak nie zostały należycie implementowane, to mogą wywołać skutki również wobec jednostek.

Po pierwsze, dysponujemy wyjątkiem z art. 5 Dyrektywy 2001/29/WE w sprawie harmonizacji niektórych aspektów praw autorskich i pokrewnych w społeczeństwie informacyjnym, który wyłącza z prawa do zwielokrotnienia kopie, które stały się niezbędne w związku z cyfrowym przekazem utworów. Wyjątek ten najczęściej wykorzystywany jest w stosunku do kopii tworzonych na ekranie komputera i twardym dysku, powstających podczas przeglądania stron internetowych.

Art. 5, zgodnie z orzeczeniem Trybunału Sprawiedliwości, dotyczy zwielokrotniania o charakterze przejściowym lub dodatkowym, które stanowi integralną i podstawową część procesu technicznego, i którego jedynym celem jest umożliwienie legalnego korzystania z utworu lub jego transmisji w sieci wśród osób trzecich przez pośrednika (wyrok TSUE z dnia 16.07.2009 r. w sprawie C-5/08 Infopaq International A/S przeciwko Danske Dagblades Forening).

Obserwujemy już pierwsze spory, gdzie artyści oskarżają korporacje o bezprawne wykorzystywanie ich danych w procesie trenowania AI. Universal Music wzywa streamingowe serwisy, aby blokowały używanie ich muzyki przez dostawców AI. Getty Images pozywa Stability AI za rzekome wykorzystanie milionów zdjęć ze swojej witryny.

Czynność nie może mieć ponadto odrębnego znaczenia ekonomicznego. I tutaj pojawiają się wątpliwości, bo przecież trenowanie AI często odbywa się w kontekście komercyjnym (bo nawet jeśli model jest udostępniany użytkownikom „za darmo”, to jego dystrybutor może zarabiać np. na reklamach). Rezultaty tego rodzaju przetwarzania nie są również usuwane automatycznie, więc brakuje tutaj spełnienia przesłanki tymczasowości. A jeśli wobec możliwości korzystania z utworu w ramach dozwolonego użytku pojawia się wątpliwości, to pojawia się też ryzyko, że jednak naruszymy czyjeś prawa autorskie.

Dyrektywa 2019/790 w sprawie prawa autorskiego i praw pokrewnych na jednolitym rynku cyfrowym (DSM) wprowadza także wyjątek dotyczący eksploracji tekstów i danych dla TDM (Text & Data Mining). Dyrektywa definiuje TDM jako zautomatyzowaną technikę analityczną służącą do analizowania tekstów i danych w postaci cyfrowej w celu wygenerowania informacji, obejmujących m.in. wzorce, tendencje i korelacje. Jest to technika często wykorzystywana przy rozwoju modeli AI. Wyjątki TDM mają zastosowanie, zgodnie z dyrektywą, gdy dokonywane jest zwielokrotnianie, a czynność realizuje prawo wyłączne bez usprawiedliwienia w postaci obowiązkowego wyjątku dla kopii technicznej (art. 5 ust. 1).

Wyjątek z Art. 3 dotyczy eksploracji tekstu i danych do celów badań naukowych przez organizacje badawcze i instytucje dziedzictwa kulturowego. Wyjątek z Art. 4 jest możliwy, jeśli podmiot praw autorskich nie zastrzegł sobie prawa do zwielokrotniania i ekstrakcji do celów TDM, a także jeśli przedmiot ochrony jest dostępny zgodnie z prawem. Preambuła do dyrektywy wskazuje ponadto, że TDM powinno się odbywać w celu uzyskania nowej wiedzy i odkrycia nowych tendencji. W efekcie więc komercyjni twórcy sztucznej inteligencji w Unii Europejskiej mogą zostać postawieni w niekorzystnej sytuacji. Tutaj należy zaznaczyć, że istotną wskazówką w kontekście stosowania TDM do trenowania AI mogą się okazać interpretacje dyrektywy przez krajowych ustawodawców.

Podsumowując, od podmiotów powołujących się na wyjątki, szczególnie art. 5(1) dyrektywy prawnautorskiej, wymaga się drobiazgowego spełnienia wszystkich przesłanek je konstytuujących. Ich spełnienie może być dyskusyjne. Naturą dozwolonego użytku (którego odpowiednikiem w USA jest fair use) jest stworzenie wyjątków w ochronie prawnoautorskiej służących umożliwieniu korzystania z utworu w niekomercyjnym, usprawiedliwionym społecznie celu. Zarabianie pieniędzy wykracza poza te ramy.

Najbezpieczniejszą więc opcją dla podmiotów rozwijających AI byłyby rozwiązania umowne i uzyskiwanie licencji na utwory wykorzystywane w procesie uczenia, co niemal zawsze oznacza ponoszenie opłat licencyjnych. W praktyce może się to okazać trudne do realizacji z uwagi na znaczne ilości danych, które są wykorzystywane w procesie treningu. Może to powodować problemy zwłaszcza dla mniejszych firm rozwijających AI (trudności operacyjne, wysokie koszty). Z drugiej strony, dlaczego twórcy danych wykorzystywanych przez AI mieliby nie być wynagradzani za pracę, z której owoce zbierałby ktoś inny? Jest to trudne zagadnienie łączące w sobie wątpliwości o podłożu etycznym, polityczno-ekonomicznym i prawnym. Legalną, alternatywną, prawnoautorską opcją korzystania z danych chronionych prawem autorskim jest sięganie w procesie uczenia po utwory, które są dostępne na licencjach creative commons.

Warto podkreślić, że nie poruszamy zagadnień teoretycznych. Obserwujemy już pierwsze spory, w szczególności w Stanach Zjednoczonych, gdzie artyści oskarżają korporacje o bezprawne wykorzystywanie ich danych w procesie trenowania AI. Universal Music Group wzywa streamingowe serwisy, aby blokowały używanie ich muzyki przez dostawców AI do doskonalenia ich technologii. Getty Images pozywa Stability AI za rzekome wykorzystanie milionów zdjęć ze swojej witryny bez pozwolenia do trenowania Stable Diffusion, AI generującej obrazy. To tylko wybrane z nagłówków artykułów z ostatnich miesięcy.

Wyroki które mogą zapaść w tych sprawach będą miały istotny wpływ na postrzeganie zagadnień AI i prawa autorskiego w europejskim porządku prawnym. W tym kontekście bardzo ciekawe jest ostatnie orzeczenie Amerykańskiego Sądu Najwyższego w sprawie Andy Warhol Foundation v. Goldsmith. Co prawda nie ma to nic wspólnego z AI, ale dotyczy – interesującego dla rozwoju sztucznej inteligencji – tematu granic przetwarzania utworów bez zgody twórców. Sąd stwierdził, że wykorzystanie przez A. Warhola zdjęcia nie było wystarczająco transformatywne, a w efekcie nie mieści się w granicach fair use i narusza prawo.

Z europejskiego podwórka, ciekawy w tym kontekście jest kierunek zmian AI Act dokonanych przez Parlament Europejski. Przedstawił on propozycję, aby nałożyć na twórców generatywnej AI obowiązek dostarczania podsumowania danych chronionych prawem autorskim wykorzystywanych do treningu, na razie bez wskazania konkretów.

Wydaje się, że wytwory autonomicznie działającej sztucznej inteligencji nie będą co do zasady chronione prawem autorskim. Należy się więc liczyć z ryzykiem, że takie rezultaty pracy AI będą należeć do domeny publicznej, każdy może je swobodnie wykorzystywać bez zgody podmiotu odpowiedzialnego za ich utworzenie.

3. Status dzieł wygenerowanych przez AI

Nie mniej istotna niż los prawny danych do trenowania modelu AI, jak i samych modeli AI, jest kwalifikacja wytworów generowanych przez sztuczną inteligencję. Dlaczego to zagadnienie jest problematyczne? Z tych samych powodów, które opisywaliśmy w kontekście statusu modeli AI. Mówimy o sytuacji, kiedy wytwory AI są determinowane „autonomicznie” przez model (który sam, w naszej ocenie – co do zasady – nie jest utworem), nie przez jego operatorów. Chodzi o to, że model AI, w przeciwieństwie do klasycznego systemu IT, może być czymś więcej niż tylko narzędziem w ręku operatora. Może nawet go zastąpić. Tak jak w przypadku procesu kreowania modeli AI, zaburzony tutaj zostaje naczelny paradygmat prawa autorskiego: związek człowieka-autora z jego dziełem.

Opis prawny ww. zagadnienia znajduje się w części poświęconej modelowi AI. Tutaj należy zwrócić uwagę na problem istotniejszy w popkulturze niż w prawie. Problem sztucznej inteligencji jako twórcy. Co jakiś czas pojawiają się dyskusje w tym temacie. Nie ma do tego jednak żadnych podstaw prawnych. Przyznanie autorstwa sztucznej inteligencji łączyłoby się z koniecznością nadania jej podmiotowości prawnej, co na tę chwilę można traktować w kategoriach satyrycznych.

Wracamy więc do konstatacji identycznej jak dla modeli AI: wytwory autonomicznie działającej sztucznej inteligencji nie będą co do zasady chronione prawem autorskim. Należy się więc liczyć z ryzykiem, że takie rezultaty pracy AI będą należeć do domeny publicznej, każdy może je swobodnie wykorzystywać bez zgody podmiotu odpowiedzialnego za ich utworzenie. Kreuje to dość istotną lukę. Częściowo powinno ją pokrywać prawo ochrony przed nieuczciwą konkurencją (z pewnością pasożytowanie na wysiłkach twórczych innego przedsiębiorcy byłoby czynem nieuczciwej konkurencji), jednak jest to dość ograniczona ochrona.

W relacji dostawca-klient koniecznie należałoby ją wzmocnić odpowiednimi zobowiązaniami umownymi. Natomiast w szerszym kontekście, ponownie, jak przy modelach AI, jesteśmy zmuszeni czekać na ruch sądów i ustawodawcy – może zostać wykreowane prawo sui generis do wytworów pracy AI. Może też dojść do wtłoczenia rezultatów pacy AI do reżimu prawa autorskiego, przed czego konsekwencjami przestrzegamy. Różne, istniejące możliwości należy antycypować i zabezpieczać właściwymi mechanizmami kontraktowymi w relacji dostawcy AI z zamawiającym oraz tym zamawiającym a jego potencjalnymi klientami obsługiwanymi przez AI.

Powyższe konkluzje dotyczą AI pracującego autonomicznie. Jeżeli jest to tylko wysublimowane, ale wciąż narzędzie jedynie wspomagające twórcę (np. przez automatyzację) – nie należałoby traktować przesadnie wpływu takiej sztucznej inteligencji – i powstały wytwór zakwalifikować jako utwór należący do operatora AI. Twórca byłby tutaj wspierany przez AI, nie nią zastąpiony.

Generalnie, tworzenie przy udziale AI można by wyjaśnić za pomocą osi. Na jej jednym krańcu będzie wygenerowanie utworu całkowicie przez sztuczną inteligencję, zainicjowane jedynie przez naciśnięcie przez człowieka przysłowiowego guzika. Po drugiej stronie znajdzie się sytuacja, gdy człowiek, który wprowadza do procesu twórczego drobne elementy automatyzmu AI. Pośrodku pojawi się natomiast sytuacja, gdy dzieło powstanie przy użyciu AI, ale człowiek będzie miał bardzo duży wpływ na jego ostateczny kształt.

W braku regulacji będziemy więc badać każdą sytuację indywidualnie i za każdym razem analizować wkład twórczy człowieka w utwór. Istotnymi aspektami, które będą brane pod uwagę w sytuacjach spornych będą m.in. kwestia kierowania procesem twórczym, analiza procesu twórczego i stopnia oryginalności podejmowanych działań oraz uzależnione od obecności człowieka w poszczególnych fazach tworzenia. Możemy je w ogólności podzielić na fazę koncepcyjną, wykonanie czy produkcję.

Nasze obawy a propos kwalifikacji wytworów AI zdają się towarzyszyć dostawcom popularnych narzędzi AI. Regulamin Chatu GPT przewiduje przeniesienie na użytkownika praw, tytułów i udziałów (all its rtight, title and interest) do treści wygenerowanych przez Chat GPT. Nie jest jednak stwierdzone, że mówimy tutaj o prawach autorskich, ani jakichkolwiek innych. W regulaminach dostępnych usług AI pojawiają się zaś mechanizmy uzależniające zakres uprawnienia do wytworzonego outputu od wysokości opłaty użytkownika.

Prawnoautorskie quo vadis

Nie podlega wątpliwościom, że sztuczna inteligencja i jej wytwory, a także problematyka ochrony danych wykorzystywanych do treningu AI generują znaczne problemy na tle prawa autorskiego. I w przeciwieństwie do wielu innych sygnalizowanych trudności prawnych, w naszej ocenie konieczna jest dość głęboka ingerencja ustawodawcy.

Należy poddać dokładnej interdyscyplinarnej analizie zagadnienia styku AI i prawa autorskiego i wypracować zmiany w przepisach lub przynajmniej jednolite wytyczne dla rynku (funkcjonujące najlepiej na poziomie międzynarodowym). Być może najbardziej odpowiednią opcją będzie stworzenie dla AI odpowiedniego, specyficznego reżimu prawnego bazującego na prawach sui generis. Wtłoczenie praw do modeli AI oraz rezultatów ich prac do prawa autorskiego grozi bowiem erozją tego ostatniego. Rozstrzygnięcia natury etycznej, politycznej i ekonomicznej wymaga także los prawny danych wykorzystywanych do uczenia maszynowego AI oraz ew. prawa do wynagrodzenia z tego tytułu dla pierwotnych twórców danych.

Niezależnie od tego, trzeba pracować w tej chwili na tym, czym dysponujemy. Nie można biernie przyglądać się sytuacji. Oczekiwanie na organy tworzące i stosujące prawo nie może blokować rozwoju i rynkowej ekspansji sztucznej inteligencji. Dla zabezpieczenia interesów graczy należy mądrze i w przewidujący sposób wykorzystać istniejące szerokie instrumentarium kontraktowe.

Piotr Kaniewski, Counsel, Adwokat, kancelaria Osborne&Clarke Polska

Paulina Perkowska, Associate, Prawnik, kancelaria Osborne&Clarke Polska

Trudne związki sztucznej inteligencji i prawa autorskiego

Tagi

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *