BiznesSztuczna inteligencjaPolecane tematy
W jaki sposób sztuczna inteligencja odnalazła swoje miejsce w Banku Pekao?
Z Janem Marią Kowalskim, dyrektorem Biura Rozwoju Sztucznej Inteligencji w Banku Pekao S.A. rozmawiamy o celach i sposobie implementacji AI, uzyskanych i planowanych korzyściach z jej stosowania, angażowaniu użytkowników oraz metodyce pracy z AI.
Czy na obecnym etapie projekty związane z AI mają się zwrócić czy nauczyć organizację pracy z takimi narzędziami, a dopiero kolejna fala miałaby już podnosić efektywność i konkurencyjność?
Chciałbym już na tym etapie łączyć oba cele. Z jednej strony mam przyjemność i przywilej prowadzić już 3 rok zespoły R&D, które posiadają prawo do eksperymentowania i testowania nowych rozwiązań, a tym samym popełniania błędów.
Z drugiej strony czujemy jasne oczekiwania z biznesu, że to nie może być technologia dla technologii, tylko konkretne narzędzie wspierające realizację celów biznesowych. Dlatego wszystkie przykłady testowania i wdrażania sztucznej inteligencji – projekty, w które jestem zaangażowany ze swoimi zespołami – realizują konkretne cele biznesowe. Są to głównie cele efektywnościowe. Przede wszystkim automatyzujemy procesy, żeby było prościej, szybciej, taniej i lepiej. Inne projekty skupiają się na doświadczeniu klienta, na analizie jego potrzeb i oczekiwań.
Jeżeli sam wychodzę z inicjatywą, mam pomysł na projekt, to muszę pokazać konkretne korzyści biznesowe, które dzięki niemu uzyskamy. W praktyce pokazać jak np. nowy model AI usprawni obsługę dokumentów w banku.
W stronę fabryki AI
Większość firm koncentruje się na poszukiwaniu scenariuszy zastosowań i równolegle – na kompletowaniu zespołów. Czy w Pekao SA ten proces działa już jak dobrze naoliwiona maszyna?
Mamy nawet hasło: „fabryka AI”, ale to nie znaczy, że wszystko już działa tak dobrze, jak naoliwiona maszyna. Myślimy o fabryce AI, gdzie są określone procesy, role i odpowiedzialności oraz metodyka wytwórcza uwzględniająca specyfikę projektów AI. To jest przyszłość, do której dążymy.
W banku działa więcej niż jeden zespół zajmujący się tą technologią i chcący ją wdrażać. Na rynku obserwuję różne formy umiejscowienia odpowiedzialności za AI – w IT, w biznesie, czy w departamentach odpowiedzialnych za transformację cyfrową i nowe technologie. My również szukamy swojej drogi i pracujemy nad nową strategią.
W obszarze IT, który reprezentuję, mamy już 3 lata doświadczenia we wdrażaniu rozwiązań opartych o sztuczną inteligencję. Te kompetencje zaczęliśmy budować odpowiednio wcześniej, więc mamy na pokładzie data scientistów, inżynierów danych, programistów, analityków i innych specjalistów, którzy rozumieją tę technologię i wiedzą, jak z nią pracować.
To brzmi jak bardzo udane antycypowanie trendu.
Planowaliśmy wówczas nową strategię hiperautomatyzacji, która była mocnym trendem na rynku.
Wiele organizacji zaczyna przygodę z AI od robotyzacji procesów. My również zbudowaliśmy wpierw kompetencje w tym zakresie. Chcieliśmy jednak iść dalej i wykorzystać maksymalnie potencjał automatyzacji procesów używając przy tym różnych technologii: zaczynając od prostych robotów, przez integracje oparte o silnik procesowy BPMS czy szynę integracyjną ESB, po bardziej „wyrafinowane” rozwiązania oparte o AI. Aby zwiększyć naszą efektywność w dostarczaniu narzędzi dla biznesu, zaczęliśmy budować je na platformie Low Code oraz korzystać z usług chmurowych.
W ten sposób strategia hiperautomatyzacji pozwoliła nam zbudować liczący kilkadziesiąt osób zespół zajmujący się nowymi technologiami.
Dzisiaj koncentrujemy uwagę na rozwoju sztucznej inteligencji i wykorzystaniu jej w codziennej pracy. Nie jesteśmy na początku tej drogi. Budujemy autorskie modele, sięgamy też po rozwiązania opensource oraz modele komercyjne dostępne w chmurze. Rozpoznajemy, gdzie zastosowanie znaleźć może generatywna AI. Mamy już kilka praktycznych wdrożeń.
Po godzinach pracy angażujemy się także w rozwój polskiego modelu językowego Bielik. Dzięki temu lepiej rozumiemy tę technologię, wiemy jakie ma przewagi w stosunku do klasycznych rozwiązań AI i chcemy ją świadomie stosować tam, gdzie się to opłaca.
Czy sztuczna inteligencja, której obawiano się w kontekście robotyzacji, pomaga przełamywać ograniczenia tradycyjnych rozwiązań RPA?
Sztuczna inteligencja pozwala przekraczać ograniczenia narzędzi RPA, ale pozwala też wyznaczać kolejne cele i podnosić poprzeczkę coraz wyżej.
Trzy lata temu, upojeni robotyzacją, mieliśmy dosyć dużą „farmę robotów” wyspecjalizowanych w 200 różnych procesach, skracaliśmy czas obsługi klienta nawet o połowę, zdobywaliśmy nagrody branżowe i występowaliśmy na konferencjach. Jednak zauważyliśmy, że dochodzimy do pewnych granic. Sztuką nie było przecież zbudowanie kolejnych 50 robotów, zresztą potencjał na takie proste automatyzacje powoli się kończył.
W banku zrobotyzowaliśmy głównie obszar operacji, gdzie roboty wykonują rocznie prawie 5 milionów zadań. Jednak w kolejnych latach nie uda nam się zrobotyzować kolejnych „milionów”, bo to już są zadania, wymagające bardziej zaawansowanych narzędzi. I tu wkracza sztuczna inteligencja.
Przykładowo, narzędzia OCR potrafiły zamienić skan dokumentu na tekst, ale nie potrafiły go zinterpretować. Sztuczna inteligencja jest w stanie to zrobić, przekraczając granice robotyzacji procesów.
Kolejny przykład to budowanie inteligentnych agentów, które podejmują decyzje i działają autonomicznie. Definiuje się cele, jakie agent ma realizować, a on sam podejmuje decyzje, jak to zrobić. To jest przyszłość, którą zaczynamy eksplorować, podejmując pierwsze eksperymenty. Zbudowaliśmy agenta, który wspiera doradcę w obsłudze klienta firmowego i przygotowuje mu informacje na podstawie różnych źródeł danych. Agent przykładowo sięga do Internetu po aktualności rynkowe, sprawdza dane klienta w naszych bazach i wywiadowni gospodarczej, analizuje informacje o produktach czy potencjale sprzedażowym.
Czytając anegdoty, jak ta o agencie AI, który przełamał CAPTCHA, podszywając się pod niedowidzącą starszą panią i poprosił o pomoc obcego człowieka, aby rozwiązał za niego łamigłówkę – możemy sobie wyobrazić, jak ważne jest, aby taki agent „nie nabroił”.
Tym bardziej w naszym regulowanym i wrażliwym biznesie. Wszystkie moje projekty realizowane są na rzecz klienta wewnętrznego. Wyniki działania modeli AI zawsze są prezentowane pracownikowi banku. I to on podejmuje ostateczną decyzję korzystając przy tym z informacji dostarczanych przez AI.
Bardzo kusząca jest jednak perspektywa, zwłaszcza w przypadku wysoko wolumenowych procesów obsługi zgłoszeń czy reklamacji, żeby zrealizować pełną automatyzację w oparciu o działania agenta AI i określone reguły.
Będziemy szukać takich przypadków, zaczynając od mniej krytycznych procesów, gdzie ryzyko pomyłki i niepowodzenia jest małe. Jest duża szansa, że da się zdefiniować granice działania takiego agenta.
PrzeczytAI, posłuchAI, zapytAI – AI w odpowiedzi na potrzeby
Jakie miary stosujecie, jeśli chodzi o efektywność projektów AI?
Zawsze lubię zaczynać od przykładu naszego pierwszego projektu, który zakończył się sukcesem i dał nam mandat do dalszego działania. Zbudowaliśmy system Empatia, który analizuje opinie klientów o naszej aplikacji mobilnej.
Banki często są postrzegane przez pryzmat funkcjonalności w aplikacji mobilnej, a przy tym klienci detaliczni to najbardziej masowa grupa użytkowników aplikacji mobilnej, licząca dziś ponad 3 miliony osób. Musieliśmy więc działać, kiedy wdrożyliśmy nową wersję PeoPay i nie spotkała się ona z tak dużym „entuzjazmem” klientów, jak pierwotnie zakładaliśmy. Pojawiło się wiele komentarzy i sugestii zmiany aplikacji w różnych miejscach. Tradycyjne metody analizy tych opinii ze sklepów z aplikacjami mobilnymi czy poczty elektronicznej były niewystarczające, więc stworzyliśmy narzędzie, które zbiera dane z tych źródeł, tworzy swego rodzaju BigData z opinii i komentarzy z Internetu, a następnie w oparciu modele AI analizuje m.in. ich sentyment i kategorię tematyczną.
Dzięki temu możemy szybko zbadać, jak klienci odbierają kolejne wersje aplikacji mobilnej, na co się skarżą, co chwalą, i możemy na to szybko reagować. To był pierwszy projekt, który pozwolił nam szybciej i lepiej zrozumieć potrzeby klientów.
W jaki sposób taka analiza wpłynęła na proces wytwarzania samej aplikacji bankowości mobilnej?
Osoby odpowiedzialne za rozwój aplikacji korzystają z systemu Empatia na co dzień. Dzięki temu mogą planować zmiany w kolejnych wersjach PeoPay na podstawie „głosu klienta”. W krótkim czasie udało nam się podnieść wskaźnik satysfakcji klientów z bankowości mobilnej (SATNet) o kilkadziesiąt punktów procentowych oraz ocenę aplikacji w Google Play do poziomu 4,7. To była realna korzyść z wdrożenia AI, która dała nam mandat do rozwijania zespołu i podejmowania nowych tematów.
Czyli to doświadczenie pozwoliło Wam na eksperymentowanie z AI i budowę kolejnych inteligentnych procesów?
Tak, można tak powiedzieć. Kolejnym obszarem, który wzięliśmy na warsztat była praca z dokumentami, których w banku jest mnóstwo. W wielu procesach istnieje potrzeba automatyzacji pracy z dokumentami, dlatego zbudowaliśmy narzędzie „przeczytAI”.
Narzędzie to potrafi przeczytać dokument w dowolnym formacie (również skan), następnie określić jego typ, czy jest to np. umowa kredytowa, aneks do rachunku czy zaświadczenie o zarobkach. Jeszcze do niedawna była to ręczna praca, a dzisiaj model AI klasyfikuje dokumenty i kieruje go na odpowiednią ścieżkę. Następnie możemy pozyskać konkretne dane potrzebne do realizacji procesu biznesowego, np. imię i nazwisko klienta, sumę ubezpieczenia z polisy, adres nieruchomości z umowy kredytowej. Pozwala to automatycznie wypełniać formularze na podstawie pozyskanych danych i zasilać systemy. W narzędziu „przeczytAI” wdrożyliśmy również funkcję rozpoznawania podpisów klienta, dzięki czemu doradca może szybko zweryfikować klienta będącego w oddziale. Warto dodać, że ta jedna czynność jest realizowana prawie 20 tys. razy dziennie, co przekłada się na ogromne oszczędności.
W kolejnych etapach rozwoju „przeczytAI” dodaliśmy funkcję tłumaczenia dokumentów, automatyzację procesów archiwizacji, rozpoznawania kodów QR. Za pomocą tego narzędzia przetwarzamy obecnie ponad 1,5 miliona dokumentów kwartalnie. To znowu konkretne, wymierne korzyści z wdrożenia AI.
Czy zatem w Banku Pekao powstały kolejne, podobne narzędzia?
O tak! Powstała cała seria rozwiązań „AI”, mam tu na myśli „przeczytAI”, „posłuchAI”, „zapytAI”, „wykryAI” a nawet „zatrudniAI”.
Wykorzystujemy sztuczną inteligencję nie tylko do analizy dokumentów, ale również do analizy nagrań, budowy inteligentnych baz wiedzy i czatbotów czy poprawy bezpieczeństwa, analizy podejrzanych transakcji.
Przykładowo „posłuchAI” zostało stworzone z myślą o zespołach odpowiedzialnych za zapewnienie zgodność z regulacjami, w których kontrolerzy analizują rozmowy, sprawdzając, czy były one prowadzone według odpowiednich standardów.
Fizyczne możliwości takich zespołów są ograniczone – prowadzimy dziesiątki tysięcy rozmów dziennie. Sztuczna inteligencja może odsłuchać większą próbę nagrań i wskazać te, które wymagają dodatkowej weryfikacji przez pracownika. Modele AI nie działają idealnie, popełniają błędy, dlatego w procesie jest zawsze człowiek. Zaczęliśmy wykorzystywać również te technologię w innych procesach biznesowych, m.in. do tworzenia automatycznych notatek ze spotkań i rozmów telefonicznych.
Podsumowując wykorzystujemy więc z różnymi domenami sztucznej inteligencji, przetwarzaniem tekstu (NLP), gdzie zajmujemy się dokumentami, opiniami i komentarzami klientów, oraz widzeniem komputerowym, które wykorzystujemy do przetwarzania podpisów i obrazów, rozpoznawaniem mowy.
Budowa ram i zasad
W jaki sposób udaje się pokonywać ograniczenia własne modeli, np. skłonność do halucynowania?
Przede wszystkim stosujemy zasadę, że sztuczna inteligencja zapewnia wsparcie pracownikowi, jest jego supermocą i nie zastępuje go całkowicie.
Dobrym przykładem jest automatyzacja procesów rekrutacyjnych. Model AI nie dokonuje preselekcji kandydatów ani scoringu, co jest zakazane, ale ułatwia pracę z dokumentem CV. Analizuje jego zawartość i może wskazać, które umiejętności i doświadczenie są wymagane na wskazanym stanowisku. Dzięki temu rekruter może szybciej przeskanować CV i ocenić, czy kandydat pasuje do poszukiwanego profilu. Decyzję zawsze podejmuje człowiek, a AI jedynie wspiera ten proces. Udało nam się w ten sposób zbudować bazę 80 tys. kandydatów.
Nawet jeżeli modele AI popełniają błędy, to i tak zapewniają konkretne wsparcie. Ważne jest, aby być cierpliwym i optymalizować działanie narzędzi. Na przykład „posłuchAI” zaraz po wdrożeniu nie osiągało dobrych wyników. W ostatnich miesiącach pracowaliśmy nad wykorzystaniem modeli generatywnych w tym procesie i dzięki takiemu iteracyjnemu podejściu zwiększyliśmy skuteczność wykrywania nieprawidłowości o kilkadziesiąt procent.
Mamy również bardzo dobre doświadczenia w obszarze bezpieczeństwa, gdzie wykrywamy różnego rodzaju oszustwa. Klienci są namawiani do przelewów na zagraniczne konta i dokonywania podejrzanych inwestycji. Analizujemy transakcje i wykrywamy takie sytuacje, wysyłając alerty do zespołu bezpieczeństwa. Analizujemy również dokumenty tożsamości, aby wykryć fałszerstwa. Wykorzystujemy przy tym modele AI do rozpoznawania twarzy.
Jak z kolei cyberbezpieczeństwo wpływa na wyzwania w zakresie zarządzania portfelem modeli AI oraz ich cyklami życia?
W ramach naszego zespołu przechodzimy drogę od R&D do Software House, tworząc przy tym dobre praktyki i narzędzia. Dla modeli AI stosujemy podobne procesy i procedury, jak dla systemów IT. Przykładowo uruchamiając rozwiązania w środowisku produkcyjnym, skalujemy je i dbamy o mechanizmy HA i DR.
Spróbuję jednak szerzej odpowiedzieć na to pytanie. Cykl życia inicjatywy może mieć różne początki. Czasami są to własne pomysły, zainspirowane trendami rynkowymi, raportami branżowymi, dyskusjami na różnych forach i konferencjach. Innym razem biznes przychodzi do nas z pomysłami, choć przyznam szczerze często jest to bardziej ogólne zapotrzebowanie na „wdrożenie AI”.
W pierwszej fazie zawsze przygotowujemy analizę Proof of Concept (PoC), aby sprawdzić, czy mamy pomysł na rozwiązanie i czy jest ono wykonalne. Może to być testowanie modelu, trenowanie własnego modelu, wykorzystanie gotowej usługi chmurowej lub stwierdzenie, że AI nie jest odpowiednie. Ta faza trwa krótko i zwykle już wtedy powstaje wtedy prototyp rozwiązania lub pierwsza wersja modelu.
Zwykle trzeba jeszcze zbudować aplikację front end, aby użytkownik mógł pracować z AI, sprawdzić działanie sztucznej inteligencji w swoim procesie. Wykorzystujemy w tym celu platformy low-code, aby szybko udostępnić wyniki modelu AI. W ten sposób biznes dostaje więcej niż prototyp – działającą aplikację, którą może sam testować.
Dostarczenie takiej pierwszej wersji rozwiązania (MVP) wspartego AI, z którego biznes może korzystać, zajmuje nam zwykle kilka tygodni. Reakcje są różne – niekiedy model działa świetnie i nie wymaga poprawek, innym razem trzeba zadbać o jego dotrenowanie. Wyzwaniem może być skalowalność czy infrastruktura techniczna.
Na przykład, model do analizy sentymentu klientów przeszedł kilkanaście iteracji, zanim osiągnął satysfakcjonujące wyniki. W przypadku cyberbezpieczeństwa ocena skuteczności modelu może być trudna – nawet niska skuteczność będzie wartościowa, jeśli pozwala wykryć oszustwa, które inaczej byśmy przeoczyli.
Dodam, że rozwiązania AI szybko się starzeją. Czasami dochodzimy do granic możliwości starszych modeli, zastępujemy je nowszymi technologiami AI. Modele generatywne mogą na przykład przekraczać ograniczenia klasycznych rozwiązań do przetwarzania języka naturalnego (NLP), analizując sentyment wypowiedzi klienta bardziej szczegółowo. Dlatego musimy być na bieżąco z rynkiem, analizować trendy i pozostawać w gotowości na zmiany.
Powstała zatem cała metodyka…
To prawda.
Nie ukrywam, że cały czas uczymy się i szukamy najlepszej drogi do budowy rozwiązań wspieranych sztuczną inteligencją. To proces doskonalenia się – pielęgnujemy to, co działa, a zmieniamy to, co się nie sprawdza.
W przypadku AI biznes często przychodzi z ogólnym zapotrzebowaniem, a my musimy zidentyfikować konkretne potrzeby i zaproponować rozwiązania. Często organizujemy warsztaty, webinary i prezentujemy zastosowanie sztucznej inteligencji w automatyzacji procesów. My, z naszym doświadczeniem, podpowiadamy biznesowi, jakie potrzeby możemy wesprzeć i w jaki sposób. Od fazy analizy i projektowania, gdzie inicjatywa jest po naszej stronie, musimy szybko przejść do budowy i testowania rozwiązań. Dlatego proces wytwórczy musi pozwalać na eksperymentowanie. Może się zdarzyć, że dane rozwiązanie się nie sprawdzi, więc przeprowadzamy kolejne iteracje.
Cały czas zastanawiamy się, jakie kompetencje są potrzebne i jak najlepiej podejść do realizacji projektów AI. Nasza organizacja jest przyzwyczajona do tradycyjnego podejścia, gdzie po stronie biznesu jest product owner zarządzający wymaganiami i backlogiem zmian. Zdarza się, że biznes nie zbudował jeszcze odpowiednich kompetencji w zakresie AI, a product owner powinien rozumieć ograniczenia i możliwości tej technologii.
Dlatego moim zdaniem rola product ownera powinna być chwilowo pełniona przez doświadczone osoby z zespołów wytwórczych, które mogą zapewnić odpowiednie wsparcie biznesowi.
To jest wyzwanie zarówno dla IT, jak i dla biznesu, zbudować most między tymi dwoma światami – światem kredytów hipotecznych a sieciami neuronowymi.
Kiedy pojawi się problem Shadow AI?
Niewykluczone, że już niedługo. Nazwijmy jednak to zjawisko inaczej – demokratyzacją AI. Tak, jak wytwarzanie prostych robotów (RPA) zostało zdemokratyzowane, tak AI się demokratyzuje, i to szybciej. Już dzisiaj biznes może korzystać z takich narzędzi, jak Microsoft Copilot czy chatGPT i pewnie będzie to robił, bo ma taką potrzebę.
My dyskutujemy właśnie jak zorganizować taki ekosystem rozwiązań AI, ustawić odpowiedzialności za wytwarzanie rozwiązań opartych na sztucznej inteligencji bezpośrednio przez biznes. Znam firmy, które w ramach demokratyzacji budowy robotów rękami biznesu, wcześniej postawiły te granice. Z reguły, jeśli proces jest krytyczny lub ważny, musi trafić do IT. Natomiast jeśli mamy do czynienia z zadaniem, które użytkownik realizuje na swoim komputerze, widzi potencjał na usprawnienie swojej pracę i nie jest to sprzedaż kredytu czy onboarding nowego klienta, to może zautomatyzować takie zadanie samodzielnie. Bierze wtedy za to odpowiedzialność i nie może udostępniać swojego rozwiązania innym.
Rysuje się obraz bardzo zindywidualizowanego podejścia.
Wydaje mi się, że narzędzia do demokratyzacji AI będą dawały możliwość konfiguracji pewnych ograniczeń lub udostępniania szerszych funkcjonalności dla bardziej zaawansowanych użytkowników. Już dzisiaj użytkownicy biznesowi budują samodzielnie rozwiązania na platformach BI czy automatyzują procesy w oparciu o RPA. Dlaczego nie mieliby budować własnych agentów AI?
My myślimy o udostępnieniu możliwości tworzenia takich rozwiązań w oparciu o modele generatywne. Użytkownik mógłby nadać rolę agentowi, określić, jakie zadania ma obsługiwać, a następnie wskazać narzędzia, z których agent może korzystać (np. dostęp do Internetu, analiza dokumentów). O takiej demokratyzacji AI jest coraz głośniej na rynku.
Nie wierzę jednak w budowę kompleksowych rozwiązań wspieranych AI bez udziału IT. Ani platformy technologiczne, ani nasze organizacje, nie są na to dzisiaj gotowe. Wyzwaniem jest zwykle integracja AI z własnymi specyficznymi potrzebami, procesami, systemami.
Są jednak takie obszary biznesowe (CRM, ryzyko) , gdzie zawsze funkcjonowało Shadow IT. Tam są specjaliści od danych, analityki klienta i jego zachowań. Tam jest też ogromny potencjał dla AI. Myślę jednak, że to, kto i w jakim modelu będzie go realizował, to bardzo zależy od specyfiki danej organizacji.