CDOSztuczna inteligencja
AI ma przybliżyć nas do realizacji celów zdefiniowanych w strategii banku
Z Grzegorzem Idzikiem, dyrektorem Departamentu Projektów, Procesów i Innowacji w VeloBanku rozmawiamy o zrealizowanych już projektach Generative AI; wpływie, jaki rozwiązania te mają zarówno na funkcjonowanie banku, jak i ofertę dla klientów; podejściu do tego typu projektów; rozpoczęciu ich od zdefiniowania MVP; a także oczekiwanych efektach wdrożeń GenAI.
VeloBank jest jednym z pierwszych banków, który wdrożył narzędzia Generative AI w Polsce. Jak mogą one strategicznie wpłynąć na działanie firm w Waszym sektorze?
GenAI ma gigantyczny wpływ na to, jak pracujemy, tworzymy strategię, podchodzimy do tworzenia produktów. Wszystko staje się dużo szybsze i bardziej dostępne. Możemy bazować na dużych modelach językowych, które są w stanie pomagać nam w tworzeniu dużo precyzyjniej dopasowanych produktów. Dzięki temu jesteśmy tam, gdzie klienci tego potrzebują.
Nasza strategia od początku w dużym stopniu opiera się na wykorzystaniu nowoczesnych technologii, w tym sztucznej inteligencji. Chcemy też w jeszcze większym stopniu bazować na rozwiązaniach dostępnych w publicznej chmurze obliczeniowej. Myślę, że w najbliższych latach tego rodzaju podejście zmieni zasady gry w sektorze bankowym. Banki będą inaczej działać, postrzegać rzeczywistość i otoczenie rynkowe. Znikną zupełnie struktury, w których wytworzenie nowego rozwiązania trwało miesiącami, a niekiedy latami. Pójdziemy jeszcze mocniej w stronę zwinnych organizacji, które będą w stanie szybko wykorzystywać technologię i wdrażać nowe produkty i usługi.
Zmiana ta dotyczy tylko „wewnętrznego” sposobu działania banku, czy przekłada się też na produkty dla klientów końcowych?
Dotyczy obu sfer. Jako VeloBank jakiś czasu temu zaczęliśmy mariaż z e-commerce. Stąd też uruchomienie platformy VeloMarket. Widzimy bardzo duży potencjał w tym, że nasz bank stał się naturalnym partnerem dla klienta w jego codziennym życiu. W tym kontekście sztuczna inteligencja jest w stanie wspierać interakcję z nim, przewidywać jego potrzeby i proponować rozwiązania dopasowane do danej chwili w życiu.
AI może też – jak w przypadku naszego projektu wdrożenia Generative AI – sprawdzać, które ze sprzedawanych produktów spełniają określone wartości. W przypadku VeloMarketu jest to ekologia oraz wsparcie zdrowego stylu życia.
Tego rodzaju pomysły na wykorzystanie AI będą coraz powszechniejsze i to w wielu miejscach. Zmiana ta zachodzi globalnie, dla całego przekroju społeczeństwa, nie tylko dla konkretnej branży czy banków.
W jaki sposób szukacie nowych pomysłów na wdrożenie algorytmów AI albo testujecie je zanim wejdziecie w projekt produkcyjnie?
Dzięki metodyce pracy nazwanej przez nas eXtreme Agile jesteśmy w stanie bardzo szybko opracowywać i testować nowe pomysły. Tworzymy małe zespoły, które pracują nad realizacją danej zmiany. W efekcie powstaje MVP (Minimum Viable Product – przyp. red.), które jesteśmy w stanie szybko wdrożyć, przetestować i zweryfikować nasze założenia.
Jako VeloBank chcemy być trendsetterem, organizacją, która wyznacza nowe kierunki wykorzystania nowych technologii w bankowości. Obserwujemy też inne branże, które poprzez to, że są mniej uregulowane prawnie, mogą być kilka kroków przed bankami w zastosowaniu nowoczesnych rozwiązań, w tym algorytmów sztucznej inteligencji.
Na jakie sektory zwracacie teraz uwagę w kontekście AI?
To, co dzieje się aktualnie na rynku z wykorzystaniem algorytmów AI dotyczy praktycznie każdej branży. Ciężko wskazać tę, której by nie dotyczyło. Przykładowo w sektorze medycznym mamy do czynienia z obrazowaniem rezonansu magnetycznego wspartym sztuczną inteligencją. Branża reklamowa wykorzystuje GenAI do tworzenia contentu – tekstów, obrazów, filmów. Tych pomysłów jest naprawdę bardzo wiele.
W naszym backlogu mamy kilkadziesiąt projektów zakładających wykorzystanie GenAI, a aktywnie pracujemy nad równoległym wdrożeniem kilku z nich. Aktualnie przygotowujemy się do automatyzacji procesów back-office. Dzięki narzędziom RPA (Robotic Process Automation – przyp. red.), ale z aktywnym wykorzystaniem algorytmów AI. Między innymi autymatyzujemy proces selekcji spraw, z którymi zwracają się do nas klienci. W kolejnym kroku roboty RPA i GenAI przygotują propozycję odpowiedzi na te zapytania.
Jakie są najciekawsze Use Case’y, na które się natknęliście?
Jednym z ciekawszych i coraz bardziej popularnych zastosowań są asystenci AI. Każdy z nas ma w telefonie Siri, Aleksę czy Asystenta Google. Dziś wchodzą one w świat bankowy. Bank of America wprowadził np. do oferty wirtualnego asystenta finansowego Erika, aby wspierać 37 mln klientów w codziennym bankowaniu. W ciągu 5 lat od jego uruchomienia liczba interakcji z Eriką przekroczyła 1,5 mld!
JPMorgan stworzył zaś IndexGPT, który ma doradzać klientom w inwestycjach.
Dokładnie. Tego typu zastosowaniom także się przyglądamy. Choć polski rynek nie jest jeszcze tak dojrzały jak amerykański jeśli chodzi o wykorzystanie AI w tego typu „kompleksowych” Use Case’ach. Na razie mówimy o punktowym wykorzystaniu AI. My też wdrażając nasze boty, staraliśmy się dotąd, aby działały one w odseparowanym środowisku.
To jest jednak kierunek, w którym też chcemy podążać. We wrześniu ubiegłego roku stworzyliśmy pierwszego asystenta, na razie dla naszych doradców, który został zasilony wiedzą na temat Bezpiecznego Kredytu 2%. Wspierał on ich w rozmowach z klientem.
Kolejną fazą będzie udostępnienie doradcy AI szerszej grupie pracowników w oddziałach naszego banku. Następnie zaś klientom. Przyszłe boty informacyjno-produktowe będą rozwijały się w kierunku sales botów, co oznacza, że przejmą niektóre funkcje sprzedażowe. Klient w kanale self-service będzie mógł porozmawiać z takim botem – w dowolnej formie, czy to tekstowej, czy głosowej – aby dowiedzieć się więcej o jakimś produkcie, rozwiać wątpliwości i w ten sposób „domknąć” sprzedaż.
Na razie jednak powstające boty są kierunkowane na konkretne potrzeby komunikacyjne. Wynika to z jednej strony z ograniczeń regulacyjnych, które mamy, a z drugiej ograniczeń samej technologii. Jesteśmy dopiero na początku drogi do ich multimodalności.
Wielkie modele językowe, z których aktualnie korzystamy, nie są jeszcze w stanie obsługiwać komunikatów w różnorodnych formach – tekstowo, dźwiękowo, za pomocą obrazów czy wykorzystując mix tych technik. Multimodalność będzie kolejnym katalizatorem zmian w obszarze AI/GenAI.
Mam wrażenie, że dziś projekty GenAI najczęściej związane są z analizą dużych zbiorów wewnętrznych dokumentów.
W VeloBanku także mamy przykład tego typu zastosowania. Choć chatbot wspierający naszych doradców ma ograniczony dostęp tylko do dokumentów, które zostały przez nas przygotowane. Mówimy o procedurach, tabelach opłat i prowizji, opisach produktów. Celowo nie chcieliśmy dawać mu dostępu do świata zewnętrznego, aby przekazywać doradcom – a pośrednio klientom – tylko tę wiedzę, która dotyczy naszego banku. Nie chcieliśmy też, aby konsultant musiał odsiewać informacje, które pochodzą z internetu od tych dotyczących naszych produktów.
To była pierwsza próba działania chatbota produktowego. Zależało nam więc również na tym, aby „temperatura” odpowiedzi była ustawiona na minimum, aby pozbyć się ewentualnej halucynacji modelu.
Będziecie wychodzić poza zastosowania GenAI bazujące na dużych zbiorach dokumentów?
Na początek, jeszcze w I półroczu 2024 roku, chcemy udostępnić kolejne, cztery chatboty produktowe. Pójdziemy jednak o krok dalej. Chcemy stworzyć bota, który – w formie tekstowej i głosowej – będzie komunikował się bezpośrednio z klientem.
Myślimy również o rozwiązaniach służących do tzw. ocieplania leadów, które wpadają z internetu lub od zewnętrznych partnerów. Zwykle jest to numer telefonu, imię i nazwisko klienta, ale bez konkretnej informacji dotyczącej zakresu zainteresowania naszą ofertą.
Chcemy automatycznie – wykorzystując AI – wykonać pierwsze połączenie. Chatbot odpowiedziałby na podstawowe pytania klienta, ale też np. zbadałby jego uwarunkowania prawne, a także ocenił, czy dany produkt jest faktycznie dla niego. Dopiero w ostatnim momencie, chcemy przełączać rozmowę do konsultanta, który będzie mógł sfinalizować sprzedaż, oferując odpowiedni mix produktowy.
Spotkaliśmy się na konferencji Microsoft Build AI Day. Czy w VeloBanku bazujecie głównie na rozwiązaniach Microsoft Azure OpenAI?
Jeżeli chodzi o nasz stack technologiczny w kontekście AI, to jest to faktycznie chmura Microsoftu, a dokładnie dostępne tam modele GPT – zarówno 3.5 Turbo, jak i 4.0, a już za moment GPT-4 Vision. Natomiast nie ograniczamy się do jednej chmury. Jesteśmy w trakcie realizacji projektów Proof of Concept z innymi dostawcami rozwiązań bazujących na algorytmach AI.
Rozważacie takie produkty, jak GitHub Copilot albo Copilot for Security, który jest dostępny od 1 kwietnia tego roku także w Europie?
Właśnie jesteśmy w fazie PoC wykorzystania GitHub Copilot. Pierwsza grupa deweloperów w VeloBanku została już wyposażona w to narzędzie. Zebraliśmy też pierwszy feedback. Chcemy rozszerzać zastosowanie GitHub Copilot w naszej organizacji.
Copilot będzie wspierał nie tylko naszych deweloperów. Chcemy sprawdzić w jaki sposób może pomóc w codziennej pracy biurowej, pracy koncepcyjnej. Część pracowników dostanie więc dostęp do tego asystenta dostępnego w usłudze M356.
Będziemy również weryfikować przydatność w pracy naszych zespołów narzędzi takich, jak Copilot for Security.
Od czego najlepiej zacząć projekt wdrożenia Generative AI w organizacji?
Od przekonania się, że jest to faktycznie dobry kierunek. Należy wybrać pierwszy Use Case, zdefiniować dla niego MVP, który jesteśmy w stanie wdrożyć, a który jednocześnie dostarczy mierzalną wartość organizacji.
Czy w projektach GenAI biorą udział mieszane zespoły – IT i biznes?
Zdecydowanie są to mieszane zespoły. Product Owner jest zawsze po stronie biznesowej. Definiuje zakres prac i uczestniczy w codziennym życiu zespołu. Można więc powiedzieć, że biznes i IT – ramię w ramię – realizują projekt. Z tej perspektywy wdrożenia GenAI „zebrane” są w większy program operacyjny, który został zdefiniowany w naszej strategii. W jego ramach będziemy realizowali kolejne Use Cases.
Ostatnie pytanie, jak liczycie zwrot z takiej inwestycji? Na jednej z prezentacji na konferencji Microsoft Build AI Day podano, że każdy 1 USD wydany na projekt AI to 3,5 USD osiągniętego zysku.
Nie jesteśmy jeszcze na takim etapie, aby zweryfikować zwrot z inwestycji w GenAI. Na prezentacji, którą obaj widzieliśmy, pojawiła się też informacja, że efekty tego typu projektów widoczne są po 14 miesiącach. My zaś tę przygodę zaczęliśmy w sierpniu 2023 roku.
Wierzymy jednak, że zmiany realizowane z wykorzystaniem algorytmów AI są pewnego rodzaju samofinansującym się mechanizmem. Wybieramy projekty, które pomagają nam doskonalić nasz Operational Excellence i – dzięki temu – obniżać koszty. Uzyskane oszczędności jesteśmy zaś w stanie reinwestować w nowe usługi, które oferujemy klientom.
Ważne jest też to, że dla nas AI jest narzędziem, które ma przybliżyć nas do realizacji celów zdefiniowanych w strategii banku. Dzięki AI chcemy przyciągać nowych klientów, którzy będą chcieli być z nami, bo widzą z tego tytułu realne korzyści. Są to korzyści związane z tym, że nasi asystenci AI wspierają ich nie tylko w codziennym bankowaniu, ale i codziennym życiu. Widzą, że wychodzimy naprzeciw ich oczekiwaniom.