Sztuczna inteligencjaBiznes

Generatywna sztuczna inteligencja w organizacji – potencjał, ryzyka i dobre praktyki

Komentarz

W jaki sposób firmy mogą wykorzystać możliwości płynące z generatywnej sztucznej inteligencji i jakie mogą być tego efekty? Czy systemy AI potrzebują nadzoru człowieka, a jeśli tak, to dlaczego? Wreszcie – jakie ryzyka wiążą się z zastosowaniem tej technologii? Jeśli szukasz odpowiedzi na te pytania, dobrze trafiłeś. Zapraszam na wyprawę w fascynujący świat AI.

Generatywna sztuczna inteligencja w organizacji – potencjał, ryzyka i dobre praktyki
Vignesh Subramanian, vice president of product management w Infor

W 2023 roku o sztucznej inteligencji (ang. Artificial intelligence, AI) jest naprawdę głośno. Pojawiają się ostrzeżenia, że może doprowadzić do wyginięcia ludzkości czy stanowić zagrożenie dla bezpieczeństwa narodowego. Słyszymy też apele o wstrzymanie na co najmniej sześć miesięcy wszystkich szkoleń systemów AI powyżej pewnej wydajności. Niemałe poruszenie wywołało także odejście z pracy „ojca chrzestnego” sztucznej inteligencji. Najwięcej jednak mówi się o modelach generatywnej sztucznej inteligencji, jakim jest na przykład ChatGPT. Dyskusje toczą się m.in. na temat zdolności takich modeli do przekształcania naszego codziennego życia. A jak to wygląda w przypadku środowiska korporacyjnego? W jaki sposób firmy mogą wykorzystać możliwości płynące z tej praw­dziwie transformacyjnej technologii i jakie mogą być tego efekty?

Przełomowa technologia

Chociaż systemy Generatywnej AI są wciąż na wczesnym etapie rozwoju, niewątpliwie znajdujemy się w punkcie zwrotnym – nie tylko pod względem sztucznej inteligencji, lecz także całego obszaru przetwarzania danych. Większość dużych modeli językowych, które robią furorę w zakresie generatywnej sztucznej inteligencji, dobrze radzi sobie z przetwarzaniem języka naturalnego (ang. Natural Language Processing, NLP). W wielu branżach takie modele mogą okazać się pomocne w różnych aspektach działania aplikacji opartych na NLP. Dobrym przykładem jest tu zapewnianie interaktywnej pomocy. Interaktywny chatbot oparty na Generatywnej AI może, przykładowo, ułatwić udostępnienie bazy wiedzy bądź instrukcji dla użytkownika końcowego i dokumentacji, co znacznie usprawni proces wyszukiwania informacji.

Mimo że stanowi to dla organizacji zdecydowanie większe wyzwanie, natychmiastowe korzyści z pew­nością przyniesie im także zapewnienie możliwości wyszukiwania danych biznesowych w ramach całej organizacji w oparciu o NLP. Naturalnie obszar ten stale się rozwija, a firmy zajmujące się tworzeniem oprogramowania dla biznesu już teraz intensywnie badają, w jaki sposób modele Generatywnej AI mogą uzupełniać istniejące rozwiązania w zakresie NLP i oferty związane ze sztuczną inteligencją. Może to polegać na poprawie doświadczeń kontekstowych, integracji funkcji czatu głosowego z asystentami cyfrowymi lub modelami uczenia maszynowego (ML) za pośred­nictwem platform AI oraz wzbogaceniu tzw. „enterprise search” (wyszukiwania korporacyjnego) o możliwość rozpoznawania obrazów.

Generatywna AI w akcji

Modele Generatywnej AI umożliwiają użytkownikom m.in. korzystanie z różnych źródeł danych w celu generowania tekstu i kodu, formułowania prognoz i podsumowań, wykonywania tłumaczeń, analizo­wania obrazów itp. Oznacza to, że takie modele mogą być używane w organizacjach do uspraw­nienia wielu aspektów ich działalności, takich jak pisanie wiadomości e‑mail, sporządzanie raportów i doku­mentacji dotyczącej produktów, tworzenie treści internetowych i opisów stanowisk, zgłaszanie zapotrzebowania, przeprowadzanie porównań w zakresie produktów i dostawców, a także montaż zdjęć, utworów muzycznych i materiałów wideo na potrzeby kampanii marketingowych. Umiejętności takich modeli pod kątem NLP można również wykorzystać do streszczania książek, przeglądania i spraw­­dzania treści oraz dostarczania pomysłów na wdrażanie inicjatyw.

Jak to wygląda w praktyce? Modele Generatywnej AI mogą okazać się niezwykle przydatne na przykład dla firm dysponujących działami IT i inżynierii oprogramowania, ponieważ pozwalają im zainicjować bardzo korzystną praktykę generowania kodu za pomocą takich narzędzi jak Microsoft Copilot lub AWS CodeWhisperer. Organizacje, które budują własne modele językowe dostosowane do danej branży, używają danych pozyskanych z Internetu w celu weryfikacji informacji bądź zbierania recenzji i reko­men­dacji lub potrzebują łączyć prywatne dane przedsiębiorstwa i wzbogacać je o informacje w dome­nie publicznej mogą natomiast wykorzystać ww. modele w celu dokonania integracji z narzędziami i platformami Generatywnej AI, takimi jak AWS Bedrock lub ChatGPT firmy Open AI.

Przewidywane wyzwania

Tempo zmian w dziedzinie Generatywnej AI jest niezwykle szybkie, a organizacje, które nie zareagują na czas, mogą pozostać w tyle. W idealnym scenariuszu wszystkie firmy powinny korzystać z tej potężnej technologii, zamiast ją odrzucać. Modele te nie są jednak na tyle uniwersalne, by było to możliwe. Istnieje szereg wyzwań, z którymi należy się zmierzyć, zanim takie modele będą mogły być szeroko stosowane w środowiskach korporacyjnych.

Główne wyzwania w zakresie Generatywnej AI dotyczą niezawodności narzędzi. Mimo że treści genero­wane przez duży model językowy sprawiają wrażenie oryginalnych, w rzeczywistości oparte są na wzorcu bazującym na odpowiednim zestawie danych szkoleniowych, z którym taki model miał styczność. Wygenerowane informacje nieraz okazują się nieprawdziwe, a na jedno pytanie można uzyskać wiele różnych odpowiedzi.

Drugą istotną kwestią jest ochrona prywatności. Dane i informacje wejściowe przekazywane przez użytkowników są wykorzystywane do rozwijania większego modelu. W związku z tym cenne tajemnice handlowe i dane osobowe mogą zostać udostępnione, co niejednokrotnie skutkuje naruszeniami pod względem zgodności. Ponadto procesy związane z generowaniem i wymianą treści specyficznych dla danego biznesu muszą być zgodne z surowymi wymogami prawnymi, a przede wszystkim z przepi­sami dotyczącymi ochrony danych. Na przykład, gdy firmy przeprowadzają ocenę skutków dla ochrony danych (DPIA), mają obowiązek zapewnić zgodność z ogólnym rozporządzeniem o ochronie danych (RODO). Większość dostawców platform Generatywnej AI oferuje możliwość zachowania danych organizacji na wyłączność i niewykorzystywania ich do ogólnych celów rozwojowych. Podmiotom, które planują korzystać z takich platform, nie wolno tej kwestii zlekceważyć.

Istnieje także problem stronniczości. Treści generowane przez sztuczną inteligencję są dostosowywane do potrzeb użytkownika na podstawie zapytań wejściowych. Możliwe jest również trenowanie danego modelu przy użyciu wyłącznie takich punktów danych, które są korzystne w konkretnym przypadku, bez przedstawiania pełnego obrazu. Oznacza to, że wyniki można kształtować w pożądany sposób – zarówno pożyteczny, jak i szkodliwy. Ton generowanych treści sugeruje ich miarodajność, ale w rzeczywistości mają one nieraz ściśle subiektywny charakter, co pozwala na swobodne manipulowanie bardziej łatwowiernymi użytkownikami i wpływanie na ich poglądy w przekonujący sposób przy użyciu Generatywnej AI. Ponadto wraz z rozwojem takich modeli, coraz bardziej wzrastać będzie także ryzyko wynikające z generowania fałszywych wiadomości, klipów wideo i materiałów audio.

Filtry moderacji treści

Wyżej wymienione wyzwania nie są jednak niemożliwe do przezwyciężenia. Jednym ze sposobów walki z takimi zagrożeniami jest wdrożenie odpowiednich filtrów moderacji treści w interfejsie użytkownika końcowego, za pośrednictwem którego narzędzia Generatywnej AI mogą być używane przez „zwykłych” użytkowników. Bez wątpienia, w przypadku biznesowych zastosowań rozwiązań tego typu organizacje muszą stosować tzw. podejście „human in the middle” („człowiek w centrum procesu”). W jego ramach człowiek pełni rolę pośrednika w procesach związanych ze sztuczną inteligencją. Oznacza to, że wszystkie generowane treści muszą być sprawdzane przez prawdziwą osobę, zanim zostaną rozpowszechnione. Potrzeba kontrolowania i weryfikowania narzędzi Generatywnej AI przez człowieka będzie nam towarzyszyć jeszcze przez jakiś czas, aby zapewnić większą dokładność i spójność generowanych treści, pomóc ograniczyć uprzedzenia społeczno-polityczne i zagwarantować, że firmy nie utracą przewagi konkurencyjnej.

Biorąc pod uwagę wszystkie powyższe aspekty, organizacje muszą określić, w jaki sposób mogą wykorzystać narzędzia Generatywnej AI do swoich celów. Firmy powinny także stosować się do najlepszych praktyk wskazanych przez dostawców takich narzędzi – na przykład w zakresie korzystania z filtrów moderacji treści od Open AI. Ponadto niektóre kraje starają się opracować własne polityki dotyczące sztucznej inteligencji, co organizacje będą musiały wziąć pod uwagę, zapewniając zgodność z lokalnymi politykami i odpowiednimi protokołami określonymi przez władze danego państwa.

Dynamiczny rozwój

Na podstawie analizy ewolucji Generatywnej AI w ciągu najbliższych pięciu do dziesięciu lat, można bez cienia wątpliwości założyć, że inwestycje w tę technologię ogromnie wzrosną – zarówno pod względem generowania lepszych modeli, jak i produkcji sprzętu oferującego szybsze, bardziej wydajne chipy i większą przepustowość sieci. Roli generatywnej sztucznej inteligencji zdecydowanie nie należy lekce­ważyć – wszystkie treści medialne przedstawiane nam w kolejnych latach będą pod jej wpływem, a wyszukiwanie treści w Internecie przejdzie transformację ze swojej obecnej formy w kierunku sperso­na­lizowanego, konwersacyjnego doświadczenia. Co więcej, narzędzia wykrywające treści generowane przez sztuczną inteligencję będą coraz inteligentne, a przepisy dotyczące zgodności i kwestie regulacyjne staną się zauważalnie bardziej rygorystyczne.

Podsumowując – ChatGPT i inne modele Generatywnej AI są przełomowymi rozwiązaniami, które już teraz pomagają konsu­mentom udoskonalić proces wyszukiwania, zautomatyzować tworzenie treści i zwiększyć produktyw­ność. Przewiduję więc, że organizacje szybko zdecydują się na korzystanie z tej niesamowitej technologii. Mam również nadzieję, że są one świadome różnych rodzajów ryzyka, zagrożeń związanych z prywatnością i potencjalnych błędów. Oczywiście to tylko kwestia czasu, zanim środowisko Generatywnej AI ewolu­uje na tyle, by rozwiązać te problemy. Do tego czasu, w oparciu o kontrolę i moderację ze strony człowieka, modele te mogą zrewolucjonizować środowiska korporacyjne.

Vignesh Subramanian, wiceprezes ds. zarządzania produktami w firmie Infor

Tagi

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *