Sztuczna inteligencjaBiznesPREZENTACJA PARTNERA

6 strategii, jak skutecznie (nie) wdrożyć GenAI

Advertorial

Sztuczna inteligencja na naszych oczach zmienia otaczającą nas rzeczywistość. Kolejne organizacje na świecie przebudowują procesy i modele biznesowe, wykorzystując GenAI. Warto zastanowić się, w jakim miejscu są polskie firmy, a także jakie błędy popełniają we wdrażaniu generatywnej sztucznej inteligencji.

6 strategii, jak skutecznie (nie) wdrożyć GenAI

Z czysto faktograficznego porządku chciałbym na początku podkreślić, że sztuczna inteligencja – jako dziedzina informatyki, która obejmuje sieci neuronowe, algorytmy genetyczne, uczenie maszynowe i systemy ekspertowe – rozwija się w teorii od ponad 70 lat, w praktyce zaś od ponad 40 lat. Wiele firm dzisiaj intensywnie wykorzystuje tak rozumianą sztuczną inteligencję. Nie każdy może natomiast zdawać sobie sprawę, że w tym gronie są praktycznie wszystkie instytucje finansowe w Polsce, czy też większość platform e-commerce. Tak rozumiana sztuczna inteligencja znajduje również zastosowanie m.in. w nowoczesnych telefonach komórkowych, z których korzysta dziś zdecydowana większość z nas.

Jednocześnie, mniej więcej od 1,5 roku, czyli od kiedy zadebiutowała publicznie usługa ChatGPT, sztuczna inteligencja przechodzi kolejny renesans. Od tych kilkunastu miesięcy niemalże każda firma chce skorzystać z możliwości dostępnych za pomocą tzw. generatywnej sztucznej inteligencji. Osoby zarządzające w wielu organizacjach uznały wprost, że nie jest to tylko kolejna, chwilowa moda, a fenomen GenAI ma głębsze podstawy.

Myślę zresztą, że większość z nas ma za sobą niezliczoną liczbę spotkań i dyskusji o tym, czym jest GenAI i duże modele językowe (LLM), a także o tym, w jaki sposób wpłyną one na ludzi, świat i biznes. Słyszymy lub sami wygłaszamy zarówno słowa zachwytu, jak i wyrazy naszych obaw. Pojawia się też wiele wątpliwości co do probabilistycznego, a nawet niedeterministycznego zachowania się modeli i algorytmów AI, których wynik trudno przewidzieć.

Zdarzyło się również już kilka, mniej lub bardziej nagłośnionych w mediach „wpadek”, które pokazały, że użycie GenAI może powodować także negatywne skutki. Na szczęście, na razie, zdarzenia te niosą głównie uszczerbek dla reputacji firm i osób stosujących je w mało przemyślany lub po prostu nieodpowiedzialny sposób, ale nie mają bardziej materialnego, ekonomicznego czy społecznego znaczenia.

AI jest ważne

O tym, że technologia AI jest ważna, świadczyć może choćby przyspieszenie w ciągu ostatniego roku prac Komisji Europejskiej nad rozporządzeniem ws. sztucznej inteligencji – AI Act. Ponownie wróciła również do głównego nurtu dyskusja na szczeblu krajowym o strategii AI dla Polski.

Pojawia się też coraz więcej przykładów firm i instytucji, które umiejętnie wykorzystały technologię GenAI i zaczynają z niej czerpać rzeczywiste korzyści. Nie mam tu jednak na myśli światowych gigantów technologicznych, którzy w oczywisty sposób zyskują z tego dochód. Do przykładów, gdzie wykorzystanie GenAI przynosi rzeczywiste korzyści, można zaliczyć globalne instytucje finansowe, takie jak JP Morgan, Morgan Stanley czy Citi Bank, ale też np. Ministerstwo Sprawiedliwości w Hiszpanii.

Wdrażając systemy IT, oczekujemy, że zautomatyzujemy elementy poszczególnych procesów, albo i całe procesy. W przypadku GenAI musimy być otwarci na to, że procesy optymalizujemy punktowo albo całkowicie zmieniamy podejście do nich.

Jak na tym tle wygląda nasz lokalny rynek?

Jest znanych kilka, podanych do publicznej wiadomości, przykładów organizacji z sektora finansowego oraz e-commerce, które zdecydowały się użyć modeli GenAI do rzeczywistych procesów biznesowych – to m.in. Nest Bank, VeloBank i VeloMarket, czy też Morele.net.

Większość przedsiębiorstw z naszego rynku jest jednak nadal na etapie eksperymentowania na niewielką skalę i wewnątrz organizacji. Choć powszechna opinia o polskim sektorze IT czy też bankowości jest taka, że mamy wielu wybitnych ekspertów i jesteśmy innowacyjni, to z jakiegoś powodu nie przekłada się to na wykorzystanie GenAI, które jest dziś przecież niemalże synonimem innowacyjności.

Czy jest to sytuacja oczekiwana i nie powinniśmy się nad tym specjalnie zastanawiać, czy może jednak jest tu pewna zależność systemowa, którą warto zdiagnozować i wówczas podjąć działania?

Przedstawię zatem najważniejsze z zaobserwowanych przeze mnie, powtarzających się wzorców w podejściu do wdrażania GenAI, które stają się największym hamulcem takich projektów w polskich realiach.

1. Przygotujmy Strategię AI przed rozpoczęciem wdrożeń

Każda firma i menedżer muszą mieć strategię dla swojego obszaru. Nie inaczej jest też w przypadku sztucznej inteligencji. Typowa strategia obejmuje jednak okres 3–5 lat, zawiera mapę drogową inicjatyw. Tu pojawia się jedno niezwykle istotne pytanie: w jaki sposób, w tak dynamicznej sytuacji budować strategię, skoro znakomita większość firm jeszcze 1,5 roku temu nie słyszała o GenAI?

Wszyscy widzimy, jak rośnie dynamika zmian w obszarze sztucznej inteligencji, więc strategia, którą stworzymy – z reguły tego typu dokumenty powstają przez 3–6 miesięcy – może być nieaktualna w odniesieniu do dostępnych możliwości już w momencie zakończenia prac nad nią. Czy to oznacza, że nie należy posiadać strategii?!

Wręcz przeciwnie, firma musi mieć strategię wykorzystania GenAI, ale na poziomie biznesu, a nie tylko technologii. Należy bowiem pamiętać, że generatywna sztuczna inteligencja jest w tym kontekście kolejnym narzędziem do realizacji wizji oraz ambicji firmy. Przedsiębiorstwom potrzebny jest zatem odpowiedni model operacyjny działania w zakresie wdrażania AI, który pozwoli w sposób zwinny działać, podejmować decyzje, eksperymentować i zmieniać kierunki prac, jeśli zajdzie taka potrzeba.

Firma musi mieć strategię wykorzystania GenAI, ale na poziomie biznesu, a nie tylko technologii. Potrzebny jest zatem odpowiedni model operacyjny w zakresie wdrażania AI, który pozwoli w sposób zwinny działać, eksperymentować i zmieniać kierunki prac.

2. Brak akceptacji oraz miejsca na błędy w systemach

Wdrażając rozwiązania zapewniające realizację lub wsparcie określonych procesów biznesowych, oczekujemy działania zgodnego z wymaganiami, a także tego, że poszczególne systemy będą działać bezbłędnie. Jest to oczywiste założenie, z którym trudno polemizować. Ten paradygmat, sprawdzający się w przypadku systemów działających według ściśle określonych algorytmów, załamuje się niestety w odniesieniu do dużych modeli językowych i generatywnej sztucznej inteligencji, które nie są – i nie mogą być – w pełni deterministyczne.

Nawet najlepszy aktualnie dostępny model może popełniać błędy, a im bardziej algorytmicznie musi się zachowywać, tym jest trudniej zapanować nad 100-proc. zgodnością rezultatów. Czy jest to jednak wada? Przecież tworząc modele LLM, dążymy do tego, aby były one jak najbliższe w sposobie działania do ludzi, a ludzie nie są nieomylni. Jeśli określone zadanie w procesie – np. klasyfikacja korespondencji lub udzielanie wyjaśnień dotyczących zasad promocji – wykonuje człowiek, to w wielu przypadkach możemy zastąpić lub wspomóc pracownika poprzez wykorzystanie GenAI. Wówczas najprawdopodobniej liczba pomyłek nie będzie większa od liczby błędów popełnianych dotąd przez ludzi.

O ile w przypadku ludzi godzimy się z tym, że błędy występują, to w przypadku algorytmów jest to dla nas niedopuszczalne. Jeżeli jednak przyspieszymy czas obsługi klienta przy zachowaniu statystycznie tej samej liczby błędnych przypadków, to w rezultacie nasi klienci będą bardziej zadowoleni z szybkiej obsługi, a liczba odbiorców niezadowolonych z powodu naszych błędów się nie zwiększy. Oczywiście zawsze dążymy do tego, aby oprócz szybkości wzrastała jakość obsługi, co zasadniczo ma miejsce właśnie dzięki zastosowaniu GenAI, ale oczekiwanie od takich rozwiązań pełnej nieomylności jest oczekiwaniem nad wyraz.

Nawet najlepszy aktualnie dostępny model może popełniać błędy. Czy jest to jednak wada? Przecież tworząc modele LLM, dążymy do tego, aby były one jak najbliższe w sposobie działania do ludzi, a ludzie nie są nieomylni.

3. Dążymy do pełnej optymalizacji i automatyzacji procesów

Wdrażając systemy i aplikacje, oczekujemy, że znacząco – czy nawet całkowicie – zautomatyzujemy elementy poszczególnych procesów, albo i całe procesy. W przypadku GenAI musimy być jednak otwarci na inne dwie możliwości:

A) procesy optymalizujemy punktowo – tam, gdzie GenAI faktycznie sprawdzi się najlepiej. Niekoniecznie będzie to wielka zmiana, ale takie podejście pozwala na szybkie, a przez to i skuteczne, eliminowanie wąskich gardeł w procesach biznesowych.

B) całkowicie zmieniamy podejście do procesów. Mając zaplecze w postaci tak potężnej, stosunkowo niedrogiej i w wielu przypadkach potrafiącej wykonywać zadania do tej pory możliwe tylko dla ludzi technologii, możemy na nowo przemyśleć nie tylko to, czy nasze procesy są optymalne, ale także czy niektórych z nich nie można zupełnie wyeliminować na rzecz wprowadzenia innych procesów lub zmiany ich skali.

4. Mamy doświadczony zespół IT, który się szybko uczy i może wdrożyć wszystko

Generatywna sztuczna inteligencja to olbrzymia paleta dostępnych technologii, gdzie wiele z nich ma otwarte źródła i jest łatwe do wykorzystania. Jako informatycy z natury lubimy poznawać takie nowości, uczyć się ich i eksperymentować, a im bardziej zaawansowana technologia i idąca za nią moda, tym takie podejście ma więcej zwolenników. Aby daleko nie szukać, cofnijmy się o kilka lat wstecz, do technologii z serii rozwiązań Hadoop i Big Data. Każdy szef IT chciał mieć środowisko Big Data, a programiści Spark byli jednymi z najlepiej opłacanych i poszukiwanych na rynku. Aktualnie, w wielu organizacjach pozostał z tego głównie duży dług technologiczny i problemy w zaplanowaniu migracji takich środowisk do chmury obliczeniowej.

Czy w przypadku GenAI nie obserwujemy podobnej, przesadzonej tendencji do testowania modeli otwartych, czy instalacji oraz szkolenia różnych rozwiązań na środowiskach on-premise? Ponadto, w niektórych krajach – w tym i w Polsce – pojawiają się wręcz plany budowy „własnych” dużych modeli językowych. Czas zweryfikuje, czy ta strategia się obroni, ale warto już teraz patrzeć na dane i wyciągać wnioski z doświadczeń innych.

Zastanówmy się choćby nad tym, ile czasu oraz jak dużych zbiorów danych potrzebowały firmy OpenAI czy Google do nauczenia swoich modeli LLM i wytrenowania ich do poziomu, z którego możemy dziś korzystać. Poza tym te modele nie działałyby tak dobrze, gdyby nie rzesze ludzi i tysiące godzin poświęconych na weryfikację i douczanie modeli RLHF (Reinforcement Learning from Human Feedback).

Nie bez znaczenia jest tu również czas, w jakim można zacząć korzystać z dojrzałych i sprawdzonych modeli dostępnych od ręki w chmurze do rozwiązania palących problemów. Na pewno istotny głos w tej dyskusji mają aspekty prawne, jak choćby zachowanie poufności danych, czy wątpliwości co do praw autorskich danych wykorzystanych do trenowania modeli LLM. Według mojej wiedzy obecnie problemy te zostały jednak zaadresowane przez globalnych dostawców i wymagają od strony ich klientów podjęcia praktycznie tożsamych działań proceduralnych i technicznych, takich jak w przypadku używania innych, standardowych usług chmurowych.

Organizacje, które zdecydują się przyjąć strategie oczekiwania na upowszechnienie generatywnej sztucznej inteligencji, nawet nie będą w stanie zrozumieć, co zmienia się wokół nich, a tym bardziej – przygotować się do tych zmian.

5. Nie ma powodu, aby się spieszyć, rozwiązania GenAI muszą się jeszcze „wygrzać”

Niektóre organizacje ciągle udają, że nie dostrzegają zachodzącej wokół nich zmiany, a to co się dzieje, to typowy „hype” występujący w cyklu dojrzewania każdej innowacji. Takie zaklinanie rzeczywistości może mieć negatywne skutki w wielu wymiarach. Jednym z nich jest cyberbezpieczeństwo. GenAI będzie mieć fundamentalne znaczenie dla krajobrazu cyberzagrożeń, co wprost przełoży się na wiele procesów biznesowych, model działania, a nawet – istotę usług i produktów biznesowych. Możliwe, że pojawią się np. cyberzagrożenia, które w praktyce uniemożliwią realizację wybranych usług za pośrednictwem kanałów cyfrowych. Możliwe też, że najskuteczniejszą metodą obrony przed takimi zagrożeniami będzie wykorzystanie w ich detekcji właśnie algorytmów sztucznej inteligencji o tej samej lub wyższej klasie zaawansowania.

Organizacje, które zdecydują się przyjąć strategie oczekiwania na upowszechnienie generatywnej sztucznej inteligencji, nawet nie będą w stanie zrozumieć, co zmienia się wokół nich, a tym bardziej – przygotować się do tych zmian. Można wręcz powiedzieć, że największym obecnie znanym zagrożeniem GenAI jest niewykorzystywanie tej technologii.

6. Paradoks – AI to technologia, która zagraża roli IT

Paradoksalnie naturalne jest także zjawisko niewystarczającego zaangażowania w projekty wdrożenia generatywnej sztucznej inteligencji po stronie zespołów IT. Podobnie jak w przeszłości miało to miejsce w kontekście chmury obliczeniowej, obawiają się oni utraty pewnych obszarów odpowiedzialności i marginalizacji w obliczu postępującej automatyzacji.

Jednak tak jak wcześniej, są to w dużej mierze obawy nieuzasadnione, zwiastujące pewne zmiany kompetencyjne, ale także otwierające drogę do zupełnie nowych inicjatyw leżących na przecięciu potrzeb biznesu i możliwości technologii.

Ta zmiana już się dzieje

W praktyce, skuteczne budowanie wartości na bazie technologii GenAI jest trudne, tym bardziej że zrozumienie istoty AI oraz jej możliwości również nie należy do zadań trywialnych. Jednocześnie, w krótkiej perspektywie sztuczna inteligencja może generować dość ograniczoną wartość, co nie zachęca do kolejnych inwestycji.

Problematyczna bywa zresztą kwestia nazewnictwa. „Sztuczna inteligencja” jako termin nasuwa bezpośrednie skojarzenia z czymś konkurującym z ludzką inteligencją, a więc czymś nam bezpośrednio zagrażającym. Pewne obawy i antagonizmy są tu naturalne. Tym istotniejsza jest więc potrzeba kształtowania powszechnego rozumienia istoty AI – narzędzia, które jako technologia może zostać wykorzystane w dowolny sposób – zarówno przyjazny i użyteczny, jak i wprost przeciwnie.

Warto więc dostosować sztuczną inteligencję tak, aby służyła nam wszystkim indywidualnie, ale też organizacjom, ich klientom, a tym samym – i społeczeństwu. Ważna jest zatem potrzeba przemyślenia koncepcji zastosowania AI i jej potencjalnych efektów, zapewnienia właściwych fundamentów oraz świadomości potrzeby zmiany, a także sposobu, w jaki tę zmianę komunikujemy i wprowadzamy do firmy.

Należy zatem uświadomić sobie, że kolejna, napędzana możliwościami AI, fala transformacji naszego życia już trwa. Nie powinniśmy więc szukać usprawiedliwień i zwlekać z uruchomieniem inicjatyw zmierzających do wykorzystania sztucznej inteligencji. Rewolucja AI będzie dotyczyć wszystkich – każdej i każdego z nas, naszego otoczenia z życia codziennego i zawodowego.

Bartosz Pacuszka, Principal Director, Data & AI Lead for FS, Accenture w Polsce

Tagi

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *