Branża ITBiznesSztuczna inteligencjaPolecane tematy
Jak zakontraktować projekt na wdrożenie algorytmów AI
RAPORT 4xAI
Sztuczną inteligencję określa się przełomową technologią, wielkim odkryciem dającym ludzkości zupełnie nowe możliwości. Trudno temu zaprzeczyć. Należy jednak spostrzec, że rozwojowi AI towarzyszy nieodłącznie inna wielka zdobycz cywilizacyjna – umowa. Ta sama, która towarzyszyła rozwojowi komputerów, samolotów, broni palnej, druku, a pewnie także koła i ognia.
Umowa to konstrukcja towarzysząca ludzkości od zarania. Leciwa, acz niezawodna, jest też świadkiem i aktywnym uczestnikiem rewolucji technicznej (i zapowiada się, że głębokiej zmianie gospodarczej i społecznej) niesionej przez sztuczną inteligencję. Jest mechanizmem, bez którego żaden przedsiębiorca ani konsument nie skorzysta z AI, bez którego żaden dostawca IT nie sprzeda swojego inteligentnego oprogramowania.
Tak jak różnorodny jest krajobraz narzędzi wykorzystujących AI (pod kątem technicznym, jak i biznesowym), tak różnorodne są umowy dotyczące tych narzędzi. Żaden kodeks nie przewiduje wśród swoich regulacji umowy na dostarczenie AI, umowy o świadczenie usług AI czy licencji na AI. Ale ciężar tychże kontraktów z powodzeniem mogą dźwigać od dawna istniejące umowy, już zaadaptowane do potrzeb rynku IT.
Umowy w zakresie dostarczania algorytmów AI mają charakter usługowy. Ich istotą jest możliwość korzystania z funkcjonalności oprogramowania i modeli AI kontrolowanych przez dostawcę za pomocą dedykowanych narzędzi.
Sztuczna inteligencja w ramach usług cloud computing
W tej chwili najczęściej spotykanym (ilościowo) rodzajem umów AI są umowy na usługi AI o charakterze chmurowym. Oferowane przez tzw. „wielkich dostawców chmury”, jak Microsoft, AWS i Google, czy przez vendorów takich jak osławiony OpenAI.
Jeśli chodzi o chmurowych gigantów, usługi AI należą do licznego pakietu oferowanych przez nie usług cloud. Technicznie są to usługi Software as a Service lub Platform as a Service. Umowy w ich zakresie mają charakter usługowy. Ich istotą jest możliwość korzystania z funkcjonalności oprogramowania i modeli AI kontrolowanych przez dostawcę za pomocą dedykowanych narzędzi (jak przeglądarka internetowa czy oprogramowanie klienckie).
W odniesieniu do sztucznej inteligencji do zaadresowania pozostaje kwestia udostępniania danych do rozwoju modelu AI. Często jest możliwy tzw. opt-out, czyli wyłączenie swoich danych z procesu uczenia modelu.
Wyzwaniami towarzyszącymi kontraktom na tego rodzaju usługi są przede wszystkim sama struktura umów z dostawcami cloud (przeważnie bardzo obszerna, rozbudowana i skomplikowana) oraz stosunkowo małe pole ich negocjowania. Z uwagi na pozycję rynkową cloud-providerów oraz wystandaryzowany charakter ich usług, oferowane przez nich umowy są raczej umowami o przystąpienie, których negocjowanie jest możliwe tylko w bardzo ograniczonym zakresie, nienaruszającym struktury tych umów.
Konieczne jest w takim wypadku oczywiście zadbanie o klasyczne kluczowe elementy umów chmurowych, takich jak włączenie wszystkich dostępnych elementów regulacyjnych (jeśli potrzebne), odpowiednia mechanika płatności wynagrodzenia, exit plan, w tym odpowiednie okresy zabezpieczenia danych do migracji po zakończeniu współpracy, czy prywatność.
Ochrona danych osobowych w umowach chmurowych
Dla umów obejmujących usługi AI prywatność nabiera szczególnego znaczenia. Większość cloud-providerów dostarcza aktualnie dokumenty dotyczące ochrony danych spełniające standard RODO. W wypadkach klientów z sektorów operujących wrażliwymi danymi (zwłaszcza medycznego lub finansowego) należy podjąć dodatkowe środki bezpieczeństwa, takie jak zaawansowane szyfrowanie.
W odniesieniu do sztucznej inteligencji do zaadresowania pozostaje również kwestia udostępniania danych do rozwoju modelu AI, z którego klient korzysta. Często jest możliwy tzw. opt-out, czyli wyłączenie swoich danych z procesu uczenia modelu. Może jednak wiązać się to z brakiem dostępu do pewnych możliwości modelu.
W ramach niektórych usług dostępna jest dodatkowa opcja zwiększająca prywatność: dostęp nie do funkcjonalności ogólnego modelu, do którego taki sam dostęp ma szereg innych klientów, ale do odrębnie wystawionej „wersji” modelu przygotowanego dla danego klienta, która nie będzie współdzielona, a będzie operować wyłącznie na danych tego klienta (czyli zbiór uczący danych będzie ograniczał się do pierwotnego zbioru uczącego dostawcy oraz do danych dostarczanych przez klienta). Efektem takiego wyboru będą wyższe gwarancje w zakresie prywatności, ale być może mniejsze możliwości modelu AI albo wyższe opłaty za świadczenie usług.
Rekomendowane jest wybieranie takich usług, które deklarują przynajmniej anonimizację danych osobowych w razie chęci ich użycia dla uczenia modelu. Można korzystać, o ile są dostępne, z klauzul umożliwiających odmówienie zgody na doskonalenie modelu przy użyciu danych użytkownika.
Prawa własności intelektualnej a AI
Istotnym aspektem wszelkich umów dot. AI, w tym tych chmurowych, są prawa własności intelektualnej. W tym wypadku istnieje niewielkie pole do negocjacji w zakresie korzystania z modelu. Mamy do czynienia z usługą albo udzieleniem ograniczonej licencji. Natomiast istotne jest, aby ustalić z dostawcą chmury, że użytkownikowi będą przysługiwać prawa do korzystania z rezultatów działania usługi AI (czymkolwiek faktycznie te prawa są).
Między stronami powinna zostać wyjaśniona kwestia, na ile możliwe jest, że inni klienci cloud-providera korzystający z tych samych usług będą otrzymywać rezultaty ich pracy o zbliżonym kształcie. Typowe dla kontraktów cloud computing dotyczących AI są także swoiste zakazy działalności konkurencyjnej – tzn. korzystania z dostarczonego modelu w celu rozwoju lub poprawiania modeli podmiotów konkurencyjnych lub własnego.
Rekomendowane jest zapewnienie formalnych i technicznych środków zapewniających wyjaśnialność (explainability) rezultatów pracy AI. Bez tego nie będzie możliwe chociażby stwierdzenie czy błąd działania usługi leży po stronie klienta czy dostawcy.
Klauzule ograniczające dostęp do usług
Zdarzają się w dokumentacji kontraktowej usług AI również specyficzne klauzule zmierzające do ograniczania dostępu do usługi (równocześnie zwalniające w takim wypadku dostawcę z odpowiedzialności) w wymienionych enumeratywnie wypadkach. Z jednej strony otwiera to cloud-providerom drogę to reglamentowania dostępu do usługi w wypadku zbyt dużego popytu (np. z powodu braku możliwości dostarczenia dla celów jej świadczenia wystarczającej mocy obliczeniowej). Z drugiej furtkę do ograniczania dostępu do usługi podmiotom, które zdaniem cloud-providerów mogą nie wpisywać się w ich polityki (działanie niezgodnie z wartościami promowanymi przez dostawców). Takie warunki powinna regulować dodatkowa polityka korzystania z usługi AI, z którą należy się wnikliwie zapoznać.
Kiedy mowa o politykach, od momentu uchwalenia AI Act, konieczne będzie zawieranie w umowach cloud na usługi AI (jak i w innych zresztą) wymogów w zakresie compliance. Nie wolno zapominać także o wymaganiach compliance dot. już funkcjonujących aktów prawnych sektorowych, np. ustaw finansowych (jak prawo bankowe) albo telekomunikacyjnych czy medycznych.
Rekomendowane jest też zapewnienie formalnych i technicznych środków zapewniających wyjaśnialność (explainability) rezultatów pracy AI. Bez tego nie będzie możliwe chociażby stwierdzenie czy błąd działania usługi leży po stronie klienta czy dostawcy.
Należy mieć pewność, że dany dostawca AI nie użyje kluczowego know-how klienta w innych projektach. Co więcej jest konieczne klarowne uzgodnienie źródeł danych do trenowania i testowania modelu oraz jaki będzie ich los prawny po zakończeniu treningu i testów.
SaaS-ka AI
Rodzajem usług AI najlepiej kojarzonym przez konsumentów, są usługi AI świadczone z poziomu dostępu do przeglądarki internetowej (SaaS) w oparciu o standardowe warunki (regulaminy / terms&conditions / terms of use). Należy tutaj poczynić zastrzeżenie, że usługi, o których tutaj mowa, z czysto technicznego punktu widzenia są bardzo podobne do usług omówionych we wcześniejszej części artykułu, świadczonych przez cloud-providerów. Działają bowiem w oparciu o chmurę obliczeniową, a użytkownik korzysta jedynie z publicznie dostępnych funkcjonalności „ogólnego” modelu AI (Software as a Service).
Z prawnej perspektywy jest to jednak odmienna kategoria kontraktowa. Jak mowa wyżej, są to umowy konstruowane w oparciu o tzw. wzorzec umowny, który choć, podobnie jak warunki umowne dostawców chmurowych, jest z samej natury umową o przystąpienie, to jednak struktura większości wzorców (regulaminów) popularnych usług jest znacznie prostsza niż ma to miejsce w kontekście usług AI dostarczanych przez chmurowych gigantów.
Poświęcenia uwagi wymaga już sam sposób zawarcia umowy na tego typu usługi. Nie mamy tutaj do czynienia z klasycznym podpisaniem. Do zawarcia umowy dochodzi przez oświadczenie o akceptacji warunków, założenie konta albo przez rozpoczęcie korzystania z usług jako takich. Zależnie od warunków samego regulaminu kształtującego kontrakt oraz prawa, któremu podlega.
Nutki egzotyki dodaje fakt, że możemy mieć do czynienia z najróżniejszymi porządkami prawnymi, najczęściej różnych stanów USA, Zjednoczonego Królestwa albo Irlandii. Z uwagi na ten dość odformalizowany sposób wchodzenia w relację kontraktową należy bacznie zapoznać się z warunkami usługi i nie zawierać pochopnie umowy.
Na rynku konsumenckim oraz w mniej sformalizowanym biznesie nie jest też niestety wyjątkiem traktowanie informacji o regulaminach po macoszemu i „odklikiwanie” zgód bez zapoznania się z ich właściwą treścią. Chociaż nie jest możliwe negocjowanie z AI-providerem konieczne jest upewnienie się, przed przystąpieniem do korzystania z usług, że umowa o treści nadanej przez regulamin satysfakcjonuje nasze minimalne wymagania.
W umowach na dedykowany model strony mogą ustalić, czy będzie on należał do dostawcy, klienta czy będzie współdzielony. Nie jest jasne w obecnym stanie prawnym, czy modele AI są w ogóle objęte ochroną prawa autorskiego. Moim zdaniem, w przeważającej mierze, nie.
Los danych, którymi został zasilony model
Podobnie jak miało to miejsce przy umowach z cloud-providerami, jednym z kluczowych obszarów jest własność intelektualna i prywatność: tzn. los prawny danych, którymi zostanie zasilony dany model oraz całokształt uprawnień użytkownika względem wyników prac dostarczonych przez model.
W większości przypadku regulaminy usług SaaS AI przewidują udzielenie lub nawet przeniesienie na użytkownika praw do rezultatów prac AI – równocześnie nie definiując o jakie prawa chodzi. Wynika to w dużej mierze z problemu braku ochrony prawnoautorskiej wielu wygenerowanych przez AI wytworów.
Jesteśmy raczej bezpieczni korzystając z otrzymanego outputu. Natomiast nie możemy oskarżyć o plagiat kogoś, kto „zadał” modelowi AI bardzo podobne zapytanie i otrzymał bardzo podobne rezultaty. Regulamin OpenAI (dystrybutora popularnego ChatGPT) wprost wręcz ostrzega, że otrzymywany przez nas content może nie być unikatowy.
Dodatkowo, większość regulaminów usług AI w modelu SaaS oczekuje z jednej strony jasnego wskazania, że dany upubliczniany wytwór AI został wygenerowany przez sztuczną inteligencję, a z drugiej strony przypisania oznaczenia klienta, który wygenerował taki, a nie inny output oraz go upublicznia.
Konieczne jest zwrócenie w regulaminach uwagi na to, co dostawcy AI robią z danymi dostarczonymi ich modelom. Najczęściej pojawia się deklaracja, że prawa „własnościowe” do takich danych pozostają przy użytkowniku. Przeważnie dużo mniej jasne są deklaracje, co dalej. Z oczywistych względów dostawcy usług AI chcą wykorzystywać przekazane im dane oraz rezultaty pracy ich modelu dla doskonalenia modelu. Niemniej nie jest jasne, w jaki sposób i po co dokładnie te dane będą używane.
Rekomendowane jest wybieranie takich usług, które deklarują przynajmniej anonimizację danych osobowych w razie chęci ich użycia dla uczenia modelu. Można korzystać, o ile są dostępne, z klauzul opt-out (tzn. umożliwiających odmówienie zgody na doskonalenie modelu przy użyciu danych użytkownika). Należy uważać, czy skorzystanie z nich nie będzie implikować obniżenia poziomu świadczonych usług. Rekomendowana jest weryfikacja czy regulamin usługi zapewnia usunięcie danych po zakończeniu korzystania z usługi.
Potencjalnie najbardziej niekorzystnym dla użytkowników elementem regulaminów usług AI w modelu SaaS są postanowienia o odpowiedzialności. Co do zasady, dostawcy tego typu rozwiązań nie biorą odpowiedzialności za merytoryczną poprawność prac ich modeli. Natomiast ich ogólna odpowiedzialność z tytułu niewykonania lub nienależytego wykonania umowy zazwyczaj jest ograniczona do symbolicznych kwot.
Regulaminy usług SaaS AI przewidują udzielenie lub przeniesienie na użytkownika praw do rezultatów prac AI – równocześnie nie definiując o jakie prawa chodzi. Wynika to z problemu braku ochrony prawnoautorskiej wielu, wygenerowanych przez AI wytworów.
t-AI-lor made contracts
Nie wszystkie rozwiązania AI są wystandaryzowane i dostępne wyłącznie w ograniczonym zakresie w formule PaaS lub SaaS. Działa szereg dostawców oferujących stworzenie dla klientów dedykowanych algorytmów i modeli albo opracowania modeli w oparciu o własne standardowe algorytmy i dane klienta. Tego typu kontrakty w wielu aspektach są podobne do klasycznych umów na wdrożenie, utrzymanie i rozwój systemów IT. Przy istnieniu wielu odmienności i inaczej rozłożonych akcentów.
W umowach dotyczących standardowych rozwiązań AI – opartych o chmurę obliczeniową – skupialiśmy się przede wszystkim na prawnym zabezpieczeniu danych klienta i rezultatów pracy modeli. W umowach na dostarczenie i eksploatację dedykowanych modeli AI dochodzą dwa kluczowe pierwiastki: prawa do samego modelu AI oraz zabezpieczenie odpowiedniej jakości i terminowości usług zmierzających do zapewnienia działania modelu AI na oczekiwanym poziomie.
Jeśli chodzi o „input” i „output” dotyczące pracy AI – tak samo, jak wcześniej – konieczne jest odpowiednie uregulowanie obszaru poufności. Należy mieć pewność, że dany dostawca AI nie użyje kluczowego know-how klienta w innych projektach. Co więcej jest konieczne klarowne uzgodnienie źródeł danych do trenowania i testowania modelu oraz jaki będzie ich los prawny po zakończeniu treningu i testów.
Dane te mogą być pozyskane i przekazane przez dostawcę bądź też udostępnione przez zamawiającego. W takim wypadku trzeba określić, jaki standard mają spełniać te dane (brak ich standaryzacji i odpowiedniej „obróbki” to notoryczna bolączka na rynku), w jakiej formie będą przekazywane, w jaki sposób dostawca ma je wykorzystywać i przechowywać, a także, co się stanie z tymi danymi po zakończeniu projektu lub jego części. W umowach na eksploatację AI kluczowe jest ustalenie czy dostawca może mieć dostęp do danych produkcyjnych, a jeśli tak, to jakie ma stosować zabezpieczenia. Warto także zadbać o zbieranie logów rejestrujących dostęp personelu dostawcy do danego zbioru danych.
Zaprojektowanie „własnej” sztucznej inteligencji przeważnie niewiele zmieni także w kontekście praw do rezultatów pracy wygenerowanych przez AI. Borykamy się z tym samym problemem, czy prawo autorskie w ogóle obejmuje te obiekty niematerialne? Jeśli nawet tak, to kto ma mieć do nich prawa. W umowach na dostarczenie i eksploatację dedykowanych modeli AI możemy sobie pozwolić jednak na dalece bardziej wysublimowane mechanizmy prawne z zakresu prawa autorskiego, prawa zobowiązań oraz ochrony know-how, które jak najmocniej zabezpieczą uzyskanie oczekiwanej intencji biznesowej.
Analogiczny zabieg należy zastosować w odniesieniu do samego modelu AI. W umowach chmurowych dotyczących AI problem nie występuje. Model jest kontrolowany przez dostawcę. W umowach na dedykowany model strony mogą ustalić, czy model będzie należał do dostawcy, klienta czy będzie współdzielony.
Nie jest jasne w obecnym stanie prawnym, czy modele AI są w ogóle objęte ochroną prawa autorskiego. Moim zdaniem, w przeważającej mierze, nie. Natomiast nadal konieczne jest, dla zabezpieczenia interesów stron, posłużenie się różnorodnymi konstrukcjami prawnymi z zakresu prawa autorskiego, prawa zobowiązań oraz ochrony know-how i zapewnienie efektów analogicznych do udzielenia licencji, przeniesienia praw lub nawiązania wspólności praw (przeniesienia udziału).
Do kogo należą rezultaty pracy AI?
Istotną różnicą względem umów na wystandaryzowane usługi czy rozwiązania AI, w kontekście rezultatów pracy sztucznej inteligencji, jest kwestia odpowiedzialności. W umowach na dedykowane modele możemy oczekiwać jej podziału między dostawcę i klienta w sposób dużo korzystniejszy dla tego ostatniego.
Standardem na rynku IT pozostaje odpowiedzialność dostawcy za niewykonanie lub nienależyte wykonanie umowy na poziomie oscylującym wokół 100% wartości kontraktu. Działa to identycznie w umowach dotyczących AI. Tutaj jednak otwiera się pewne wyzwanie w ocenie (i umownym tworzeniu gruntu pod tę ocenę), co stanowi niewykonanie lub nienależyte wykonanie umowy przez dostawcę AI.
W przypadku rozwiązań wykorzystujących sztuczną inteligencję dużo trudniejsze, niż przy klasycznych systemach IT, jest zweryfikowanie, czy przyczyna danego niepowodzenia w działaniu AI leży po stronie dostawcy czy klienta. Więcej miejsca zostanie poświęcone na ten temat w kontekście parametrów eksploatacyjnych AI. Tutaj należy jednak wskazać, że należy w kontrakcie zaprojektować granice odpowiedzialności pomiędzy klientem i dostawcą, które mogą być zmienne w czasie, w zależności od charakteru usług dostawcy (często jego rola w „życiu” modelu AI i idąca za tym odpowiedzialność, ulegają redukcji wraz z upływem czasu).
Aspekty trening modelu AI w umowach z dostawcami
Od strony samego procesu dostarczenia oraz eksploatacji modelu AI najważniejsze są zagadnienia treningu modelu AI, zapewnienia mu odpowiedniej infrastruktury IT oraz utrzymania i parametrów eksploatacyjnych. Trening modelu sztucznej inteligencji to element przygotowawczy ewidentnie odróżniający rozwiązania AI od innych narzędzi IT. Jest to proces polegający na nasyceniu algorytmów AI danymi w celu identyfikacji przez model wzorców i powiązań pomiędzy tymi danymi – w celu zapewnienia prognozowania przez model jak najtrafniejszych rezultatów.
Zobowiązania kontraktowe dotyczące treningu składają się:
1. zbieranie i „czyszczenie danych” – kluczowe jest pozyskanie w tym zakresie informacji od dostawcy, jak mają być przygotowane dane – oraz jasne wskazanie odpowiedzialności za działania na danych;
2. nasycanie modelu danymi (trening właściwy) – tj. zadawanie modelowi pytań odpowiadających docelowym na podstawie załadowanych danych. Trening najczęściej przybiera charakter treningu nadzorowanego (najczęściej wykorzystywana metoda, zwłaszcza dla analityki informacji – danym treningowym są przypisywane etykiety – model ma korygować się w kierunku oczekiwanych wyników), treningu nienadzorowanego (bez wskazywania oczekiwanych rezultatów – to rzadsza metoda, wykorzystywana raczej dla ogólnych modeli działających na wielkich zbiorach danych); bądź treningu wzmacnianego (model AI, w oparciu o interakcje z jego środowiskiem, dostaje „kary” i nagrody”, w zależności od osiąganych wyników – i w ten sposób ma się „uczyć” oczekiwanych zachowań – to metoda typowa dla AI sterujących samochodami autonomicznymi, czy dronami). Niezależnie od rodzaju, celem jest tutaj autokorekta przez model swoich parametrów w celu zoptymalizowania działania;
3. ewaluacja – weryfikacja i ocena poprawności rezultatów treningu na odrębnym zbiorze danych (ewaluacyjnym);
4. udoskonalenie – podjęcie „manualnie” metod skutkujących poprawą działania modelu w zależności od wyników ewaluacji (może to być w szczególności kontynuacja albo zmiana metody treningowej, czy zmiany w obrębie modelu / algorytmów).
Warto przy tym pamiętać, że trening to przeważnie ciągły proces – i, w różnej formie, jest kontynuowany już po uruchomieniu produkcyjnym modelu. Nie mniej, kontrakt powinien wskazać nie tylko same obowiązki stron w ramach treningu, ale także oczekiwane parametry pozwalające uznać wyniki za satysfakcjonujące – a dany model za możliwy do wdrożenia produkcyjnego.
Umowa na dostarczenie modelu AI powinna określać również obowiązki w zakresie infrastruktury IT potrzebnej dla treningu, a następnie produkcyjnego działania modelu AI. Jest to tym istotniejsze, że sztuczna inteligencja dla swojego rozwoju i działania często wymaga znacznej mocy obliczeniowej.
Parametry utrzymania modelu AI
Na etapie eksploatacji AI kluczowe staje się określenie parametrów utrzymaniowych. Składają się na nie dwie grupy: parametry z rodziny „tradycyjnego” SLA, a także parametry jakościowe dotyczące mierzenia poprawności merytorycznej działania modelu. Oczywiście poziom ich rygoryzmu zależy od celu, dla jakiego jest wykorzystywany model. Dla otwartego projektu edukacyjnego lub platformy rozrywkowej wymagania mogą być stosunkowo łagodne. Dla modelu wspierającego leczenie chorób nowotworowych już niekoniecznie.
Należy w umowie o eksploatację AI zapewnić odpowiednio szybkie czasy diagnozy i usuwania błędów oraz dostępności samego oprogramowania, w którym jest osadzona AI. Najlepszy inteligentny model będzie bezużyteczny, jeśli jego użytkownik nie będzie mógł się zalogować. Nowością są natomiast parametry jakościowe dla sztucznej inteligencji. Przede wszystkim jest to trafność – tj. parametr mierzący jaka część powierzonych AI zadań została prawidłowo wykonywana.
Należy tutaj zwrócić uwagę na dwa elementy nieco wykraczające poza sam kontrakt, bez których jego odpowiednia egzekucja nie będzie możliwa:
1. Najlepiej napisana umowa zda się na nic, jeśli klient nie będzie dysponował narzędziami technicznymi i procesowymi do mierzenia wyników pracy AI oraz badania przyczyn takich, a nie innych decyzji modelu. Należy o to zadbać co najmniej równolegle do procesu wdrażania i treningu modelu AI.
2. Koniecznie jest określenie granic odpowiedzialności stron umowy za daną nieprawidłowość w działaniu AI. Może ona wynikać z błędów infrastruktury, oprogramowania-aplikacji, w ramach której działa AI, błędów algorytmów, nieprawidłowości w przeprowadzeniu treningu, czy w końcu błędnych danych. Każdy z tych elementów powinien mieć przypisaną odpowiedzialność (czasem dzieloną). W tym miejscu ponownie widać, jak kluczowe będzie także posiadanie narzędzi, które pozwolą zweryfikować w czytelny dla człowieka sposób, dlaczego model podjął takie a nie inne działanie i gdzie leży tego przyczyna. Pokrywa się to z oczekiwaniami regulacyjnymi AI Act wobec narzędzi AI.
W kontekście reagowania na błędy AI i przywracania jej prawidłowego działania wielką istotność ma zarządzanie kopiami zapasowymi., Czasami najprostszą metodą zaradzenia problemom jest „zabicie” danego modelu i przywrócenie do działania modelu sprzed czasu, w którym nieprawidłowość wystąpiła. Kontrakt musi zatem zapewniać odpowiednie parametry RPO i RTO dotyczące kopii zapasowych.
Exit plan, czyli możliwość natychmiastowego odcięcia modelu AI
Zwraca się także uwagę na potrzebę zapewnienia w kontrakcie „przycisków shut-down”. Tzn. zapewnienia możliwości błyskawicznego odcięcia modelu AI od środowiska produkcyjnego lub w ogóle jego wyłączenia, w przypadku zauważenia rażących nieprawidłowości działania.
Nieodzowną częścią umowy dotyczącej dedykowanego modelu AI jest także Exit Plan. Wycofanie się częściowo lub całościowo z korzystania ze sztucznej inteligencji w danym procesie w praktyce jest szalenie trudne. Nie mniej dojrzała organizacja, zwłaszcza operująca w regulowanym sektorze lub na wrażliwych danych (finanse, energetyka, farmaceutyka i ochrona zdrowia), musi dysponować udokumentowanymi procedurami na wypadek takiego problemu.
Last but not least, już teraz konieczne jest uwzględnianie w umowach na dostarczenie i eksploatację AI wymagań compliance. Tych wynikających z RODO i ustaw sektorowych (takich jak u.k.s.c., prawo bankowe, ustawa o działalności ubezpieczeniowej i reasekuracyjnej, etc.), jak i z nadchodzącego AI Act. Umowa z dostawcą AI musi zapewniać klientowi wypełnienie jego obowiązków na tle AIA, a także, w ustalonym zakresie, pomoc w zapewnieniu spełniania obowiązków ciążących na zamawiającym.
Mówiąc o zapewnieniu zgodności z prawem, jak i dotrzymywaniu parametrów jakościowych, naturalnym skojarzaniem osoby parającej się umowami jest zapewnienie dostawcy motywacji w dotrzymaniu tych zobowiązań. Dalszym skojarzeniem są kary umowne. Oczywiście, jest dla zamawiających rekomendowane, aby ich mądrze używać w umowie. W kontraktach AI jednak rzadkością nie są także zachęty (np. w postaci premii) w przypadku działania modeli AI zgodnie z parametrami lub powyżej założonych oczekiwań.
Okiełznać nieokiełznane
Znajdujemy się w ciekawym prawnie i biznesowo momencie. Adopcja AI staje się koniecznością z uwagi na potrzebę zachowania lub zbudowania przewagi konkurencyjnej. Równocześnie wciąż wiele jeszcze nie wiemy o aspektach działania sztucznej inteligencji oraz borykamy się z niejasnościami lub oczywistymi lukami prawnymi dotyczącymi tego obszaru.
W świetle tego wyzwania znaczenie dobrej umowy jest jeszcze wyższe niż zwykle. Odpowiednio zweryfikowane lub zaprojektowane mechanizmy kontraktowe są w stanie uchronić dostawców AI, jak i ich klientów, przed istotnymi ryzykami, których mogą sobie jeszcze nawet nie uświadamiać. W tym celu konieczne jest jednak przezorne i dobrze zaplanowane działanie. Dające przestrzeń do pogłębionej analizy prawnej. Z kolei dla prawników, jak nigdy dotąd, krytycznie potrzebne jest nabycie właściwego zrozumienia aspektów biznesowych i technicznych działania biznesu, który wspierają.
Jedno jest pewne. Mimo, że prawne otoczenie AI jest jeszcze dalekie od doskonałości, rynek nie powinien postrzegać tego jako czynnika blokującego korzystanie ze sztucznej inteligencji. Wiele problemów jest w stanie pokryć dobrze napisana umowa.
Piotr Kaniewski, Counsel, Adwokat, kancelaria Osborne&Clarke Polska