ChatGPT, od czasu udostępnienia szerokiej publiczności w listopadzie 2022 roku, zyskał olbrzymią popularność na całym świecie. Wraz z rosnącym zainteresowaniem tą platformą zaczęły pojawiać się obawy, pytania i zastrzeżenia dotyczące bezpieczeństwa danych osobowych i innych informacji poufnych.
OpenAI zaprezentowało niedawno ChatGPT Enterprise – wersję przeznaczoną dla firm, która w założeniu ma zapewniać większą kontrolę i bezpieczeństwo. Zgodnie z informacjami przekazanymi przez OpenAI, z ChatGPT korzysta aż 80% firm pozycjonowanych w rankingu Fortune 500 i – choć ten współczynnik wydaje się zawyżony, ponieważ fakt, że pracownik założył konto w ChatGPT nie oznacza, że dana firma w istocie wykorzystuje to rozwiązanie w swojej działalności – to platforma ta bardzo dynamicznie zyskuje na popularności. Faktem jest, że powszechnie dostępna wersja ChatGPT posiada wiele ograniczeń – także tych, istotnych w kontekście bezpieczeństwa danych.
Tymczasem, według analiz McKinsey [1], dla 58% respondentów cyberbezpieczeństwo rozwiązań generatywnej sztucznej inteligencji („GenAI”) takich jak ChatGPT, Bard Google’a czy Claude od Anthropic, stanowi ważną kwestię oraz istotne ryzyko. Jednocześnie, co ciekawe, jedynie 32% ankietowanych podejmuje jakiekolwiek kroki w celu jego mitygacji. Nie dziwi więc fakt, że z perspektywy OpenAI udostępnienie wersji ChatGPT zgodnej z wymaganiami klientów korporacyjnych było naturalną potrzebą.
Z oficjalnych informacji wynika, że ChatGPT Enterprise „oferuje bezpieczeństwo i prywatność klasy korporacyjnej”, a w rozwój korporacyjnej wersji platformy ChatGPT zaangażowało się ponad 20 organizacji, w tym Block, Canva czy The Estée Lauder Cos. Zastanówmy się jednak czy nowa usługa rzeczywiście rozwiązuje problemy i wątpliwości biznesu dotyczące ochrony danych osobowych, bezpieczeństwa oraz szerzej – compliance?
Dotychczasowe wątpliwości i zastrzeżenia
Aby odpowiedzieć na tak zadane pytanie i ocenić użyteczność ChatGPT Enterprise, warto przywołać dotychczasowe wątpliwości, zastrzeżenia i główne zagrożenia dla bezpieczeństwa danych (osobowych i innych poufnych) pojawiające się ze strony różnego rodzaju firm i organizacji, w tym firm analitycznych. I tak, Gartner w swojej analizie [2] wskazuje na 6 głównych ryzyk prawnych związanych ze stosowaniem ChatGPT, wśród których znajduje się także to związane z ochroną danych i poufnością. Gartner rekomenduje, aby każda organizacja ustanowiła ramy zgodności dla korzystania z ChatGPT i wyraźnie zakazała wprowadzania poufnych danych do dostępnych publicznie modeli.
Z kolei przedstawiciele OWASP (Open Worldwide Application Security Project), w zaprezentowanej niedawno liście 10 głównych podatności aplikacji opartych na dużych modelach językowych (Large Language Models, LLM) na miejscu 6. umieściło ujawnienie wrażliwych i poufnych danych, które może prowadzić do nieautoryzowanego dostępu do danych, naruszenia prywatności i bezpieczeństwa. W ocenie badaczy OWASP dla zachowania odpowiedniego poziomu bezpieczeństwa kluczowe jest wprowadzenie sanityzacji (czyszczenia) danych oraz rygorystycznych polityk ich wykorzystania.
Wśród innych wątpliwości pojawiają się także te, dotyczące wymogów wynikających z RODO – w szczególności z przejrzystości i legalności przetwarzania danych oraz sposobu realizacji praw podmiotów, których dane dotyczą. OpenAI nie pomaga w ich rozwianiu, m.in. nie informując o przeprowadzonych DPIA (ocenie skutków dla ochrony danych) czy uprzednich konsultacjach z organami nadzoru. Póki co, nie znamy również stanowisk organów nadzoru – wyjątkiem jest włoski organ Garante, który w marcu zabronił świadczenia usługi ChatGPT na terenie Włoch, po czym wycofał zakaz na początku maja. Nie wiadomo jednak, jakich zmian dokonało OpenAI, aby wpłynąć na decyzję włoskiego GPDP.
Dobrym przykładem zmaterializowania się omawianych zagrożeń w praktyce jest wyciek wrażliwych danych z firmy Samsung Electronics [3]. Firma ta zezwoliła pracownikom na korzystanie z ChatGPT, jednak ci w zapytaniach do ChatGPT (promptach) umieszczali stanowiące tajemnicę przedsiębiorstwa informacje, dotyczące m.in. półprzewodników wykorzystywanych przez koncern Samsung Electronics. Z uwagi na fakt, że OpenAI wykorzystuje treści dostarczane przez użytkowników ChatGPT do trenowania i dostrajania (fine-tuning) modelu AI, poufne informacje Samsunga mogły zostać ujawnione innym użytkownikom ChatGPT.
Co zmienia ChatGPT Enterprise?
Organizacja OpenAI, w odpowiedzi na zastrzeżenia i wątpliwości odnośnie do bezpieczeństwa ChatGPT podjęła szereg kroków:
- zapewniono, że dane pochodzące od użytkowników korporacyjnych nie będą wykorzystane do douczania modelu, a organizacje będą mogły używać własnych (skastomizowanych) i prywatnych modeli AI;
- wprowadzono konsolę administratora, umożliwiającą zarządzanie użytkownikami oraz analizę ich aktywności;
- wdrożono szyfrowanie treści konwersacji w spoczynku i w tranzycie; a także
- poinformowano o uzyskaniu certyfikatu SOC2 (otrzymywanego w drodze certyfikacji niezależnej jednostki audytującej)
Wszystkie środki bezpieczeństwa stosowane przez OpenAI zostały dodatkowo opisane w serwisie OpenAI Security Portal.
W naszej ocenie najistotniejszym z wprowadzonych zabezpieczeń jest ograniczenie wykorzystania danych do dalszego trenowania modelu. Z perspektywy ochrony danych osobowych, czy też szerzej bezpieczeństwa informacji, utrata przez organizację kontroli nad danymi w momencie ich wprowadzenia do usługi ChatGPT generowała bowiem wysokie ryzyko w wielu przypadkach. Rozwiązanie to, wraz z zapewnieniem odnośnie do szyfrowania danych w spoczynku, na pewno wpłynie pozytywnie na wyniki analizy ryzyka ChatGPT, w szczególności w zakresie poufności danych. Środki te powinny uniemożliwić powtórzenie się sytuacji, która miała miejsce w przypadku wycieku poufnych danych z firmy Samsung Electronics.
Jednocześnie, z punktu widzenia ochrony danych osobowych kwestia wdrożenia ChatGPT Enterprise zależeć będzie od tego, w jakich procesach zostanie on wykorzystywany. Inaczej bowiem należy oceniać wsparcie w przygotowywaniu treści wiadomości sprzedażowych (gdzie dane osobowe, jeżeli w ogóle, będą pojawiać się w bardzo ograniczonym zakresie), a inaczej w przypadku analizy zgłoszeń kandydatów do pracy czy historii zakupowej danego klienta.
Organizacja korzystająca z ChatGPT w procesach uwzględniających dane osobowe jest odpowiedzialna za spełnienie wymogów wynikających z RODO, w tym w szczególności powinna zaprojektować proces przetwarzania zgodnie z zasadami privacy by design czy privacy by default. Czy ChatGPT Enterprise to umożliwia?
W naszej ocenie na to pytanie należy odpowiedzieć pozytywnie. Mimo to przewidujemy, że – z uwagi na liczbę zastrzeżeń i wątpliwości odnośnie do przetwarzania danych (przejrzystość przetwarzania czy sposób egzekwowania praw podmiotów danych) – świadome organizacje korzystające z ChatGPT Enterprise w początkowym okresie nie będą używać go do operacji na danych osobowych (np. klientów, pracowników, czy kandydatów) i wprowadzą polityki zabraniające wprowadzania danych osobowych do promptów.
Takie polityki powinny być jednak poparte odpowiednimi środkami technicznymi umożliwiającymi egzekucję ich postanowień. Skuteczność środków bezpieczeństwa, w które został wyposażony ChatGPT Enterprise będzie oczywiście zależała od ostatecznego kształtu funkcjonalności panelu administracyjnego, jednakże spodziewamy się rozwoju dodatkowych narzędzi zapewniających anonimowość danych, podobnych do tych stosowanych choćby w ChatDLP oferowany przez Sentra [4] czy Lakera Chrome Extension [5], które umożliwią organizacji i jej użytkownikom aktywną kontrolę nad danymi wejściowymi.
Należy zastrzec, że pomimo wykorzystania ChatGPT w procesach nieuwzględniających danych osobowych, nadal będziemy mieli do czynienia z przetwarzaniem danych osobowych użytkowników ChatGPT Enterprise oraz informacjami o sposobie, w jaki korzystają one z tego rozwiązania (które to dane będą udostępniane lub powierzane OpenAI przez każdą z organizacji). Jest to jednak proces, który nie wykorzystuje samego modelu językowego do przetwarzania danych i z tego powodu zapewnienie zgodności z RODO nie powinno powodować większych trudności.
W zakresie szyfrowania danych ChatGPT Enterprise w naszej ocenie nie niesie ze sobą realnych zmian. Jest to konsekwencją przetwarzania danych przez tzw. transformera (mechanizm będący u podstaw ChatGPT, który generuje największe ryzyko), które odbywa się już na odszyfrowanych danych. Gdyby jednak OpenAI wprowadziło w przyszłości pełne szyfrowanie tzw. Fully Homomorphic Encryption (technika umożliwiająca przetwarzanie zaszyfrowanych danych), wszelkie oceny bezpieczeństwa uległyby diametralnej poprawie. Mimo to, samo wprowadzenie szyfrowania w ChatGPT Enterprise należy ocenić pozytywnie, ponieważ choć nie eliminuje ono ryzyka związanego z przetwarzaniem danych, to pozwala przynajmniej ograniczyć je w zakresie ewentualnego wycieku np. historii konwersacji użytkowników.
Krok w dobrym kierunku
Decydując się na korzystanie ze sztucznej inteligencji w swojej działalności, wiele organizacji będzie musiało odpowiedzieć sobie na pytanie, czy zapewnienia OpenAI dotyczące bezpieczeństwa są dla nich wystarczające, czy jednak lepszym rozwiązaniem będzie wdrożenie własnego systemu GenAI opartego na modelu AI udostępnionym na zasadzie open source.
Pomimo nadal istniejących obaw przed wyciekami danych oraz wątpliwości w zakresie compliance, gotowe rozwiązania (takie jak ChatGPT Enterprise) oferują aktualnie szybkość, wydajność i wygodę. Naszym zdaniem większość organizacji w dłuższej perspektywie będzie wypierać rozwiązania gotowe na rzecz tych customowych (opartych m.in. na modelach open-sourceowych), wymuszając jednocześnie na dostawcach dostosowanie się do wymogów wynikających z ochrony danych, bezpieczeństwa informacji czy zgodności z normami, takimi jak ISO/IEC 2023:27563 czy będącą jeszcze w opracowaniu ISO/IEC DTR 5469.
Pomimo, że ChatGPT Enterprise pozostawia pewne kwestie niewyjaśnione (np. w zakresie spełniania wymogów RODO dotyczących realizacji praw podmiotów danych) należy uznać, że nowe funkcjonalności to krok w dobrym kierunku pod kątem ochrony danych osobowych, tajemnicy przedsiębiorstwa i ogólnie bezpieczeństwa informacji. Jednocześnie jesteśmy przekonani, że co do środków bezpieczeństwa OpenAI nie powiedziało ostatniego słowa.
Źródła:
[1] Raport McKinsey: The state of AI in 2023: Generative AI’s breakout year https://www.mckinsey.com/capabilities/quantumblack/our-insights/the-state-of-ai-in-2023-generative-ais-breakout-year (dostęp: 4.09.2023)
[2] https://www.gartner.com/en/newsroom/press-releases/2023-05-18-gartner-identifies-six-chatgpt-risks-legal-and-compliance-must-evaluate (dostęp: 4.09.2023)
[3] https://economist.co.kr/article/view/ecn202303300057 (dostęp: 4.09.2023)
[4] https://www.sentra.io/chatdlp (dostęp: 4.09.2023)
[5] https://www.lakera.ai/news/introducing-lakera-chrome-extension (dostęp 14.09.2023)
Marek Ballaun, Adwokat, Senior Associate w Octo Legal oraz Legal Coordinator w Stowarzyszeniu MLinPL. Specjalizuje się w prawie nowych technologii, ochronie danych osobowych i cyberbezpieczeństwie. Inspektor Ochrony Danych, (ISC)² CC, Absolwent Cyber Science: Zarządzanie Cyberbezpieczeństwem.
Paweł Latkowski, Adwokat, Partner w Octo Legal, zarządza działem Prawa Gospodarczego i Sporów. Specjalizuje się m.in. w ochronie danych osobowych. Przeprowadził kilkadziesiąt projektów wdrożenia RODO w przedsiębiorstwach różnej wielkości. Pełni także funkcję Inspektora Ochrony Danych.
Kancelaria Octo Legal posiada wieloletnie doświadczenie w obszarze ochrony danych osobowych i dostosowywania działalności klientów do zgodności z przepisami RODO. Współpracuje z wybitnymi specjalistami w zakresie bezpieczeństwa informacji i cyberbezpieczeństwa. Prawnicy Octo Legal dostosowali do wymogów RODO kilkadziesiąt podmiotów różnych wielkości z różnych sektorów i na bieżąco pomagają klientom w zakresie ochrony danych oraz cyberbezpieczeństwa.