AnalitykaCDO

PKO BP: algorytmy AI wspierają obsługę i zrozumienie potrzeb klientów

Z Kamilem Konikiewiczem, dyrektorem Biura Rozwoju Sztucznej Inteligencji w PKO BP, rozmawiamy o korzyściach płynących z wykorzystywania algorytmów Artificial Intelligence i Machine Learning w modelu cloud computing, funkcjach asystenta głosowego IKO, sposobach wykorzystywania w nim algorytmów sztucznej inteligencji, przyszłości tego rozwiązania i tym czy polskie społeczeństwo jest już na nie mentalnie gotowe; wyzwaniach stojących przed sektorem finansowym w zapewnieniu skutecznej i bezpiecznej komunikacji cyfrowej, zabezpieczaniu danych wrażliwych oraz regulacjach prawnych dotyczących zastosowania AI w Polsce i Unii Europejskiej.

PKO BP: algorytmy AI wspierają obsługę i zrozumienie potrzeb klientów

W jakich obszarach wykorzystywane są obecnie w PKO Banku Polskim algorytmy sztucznej inteligencji?

Patrząc z perspektywy procesów biznesowych sztuczną inteligencję wykorzystujemy w obszarze sprzedaży i marketingu, obsługi klienta, a także w pewnych aspektach ryzyka kredytowego oraz bezpieczeństwa. Natomiast wszystko zależy od tego jaką przyjmiemy definicję AI. Jeśli tę szeroką, że jest to cała rodzina algorytmów oraz technologii związanych z uczeniem maszynowym i ich zastosowaniami, to rzeczywiście są to te obszary, które wymieniłem. Z kolei, jeśli przyjmiemy, że są to rozwiązania związane z naśladowaniem ludzkich funkcji poznawczych – jak algorytmy konwersacyjne, czyli np. inteligentna analiza obrazu – to liczba zastosowań już się nieco zawęzi.

W wywiadzie jakiego udzielił niedawno ITwiz wiceprezes zarządu PKO BP Adam Marciniak, wspominał on o algorytmach AI i Machine Learning dostępnych w modelu cloud computing. Do czego je Państwo wykorzystujecie lub będziecie wykorzystywać?

Jeśli chodzi o chmurę, to w ramach sektora finansowego – mocno regulowanego i obostrzonego różnymi ograniczeniami związanymi z przetwarzaniem danych wrażliwych oraz osobowych – nie jest to jeszcze rozwiązanie, o którym możemy powiedzieć, że w zakresie analityki danych jest modelem szeroko dostępny dla tej branży. Zapewne prezes Adam Marciniak wspominał o tym, że mamy ambitny plan, aby większość naszych usług i technologii stopniowo – w ciągu 3 lat – przenosić do chmury.

Proszę jednak pamiętać, że jeśli chodzi o analitykę danych i AI, zazwyczaj mówimy o przetwarzaniu danych potencjalnie wrażliwych czy bardzo delikatnych. Przykładowo chatbot, asystent głosowy czy voicebot, to de facto nowe kanały komunikacji, w ramach których trzeba domyślnie przyjmować, że klient podczas rozmowy z nimi może właściwie powiedzieć wszystko. My natomiast musimy, to co klient powie zabezpieczyć zgodnie z regulacjami. I nie mam tu na myśli jedynie takich danych, jak hasło do konta czy jego saldo.

Proszę powiedzieć jakie korzyści daje wykorzystanie tych rozwiązań dostępnych w chmurze?

Chmura zapewnia nam skalowalność oraz natychmiastowy dostęp do infrastruktury – nawet dla trudnych, dużych i złożonych przetwarzań. Ponadto dostęp do najnowszego, aktualizowanego, „łatanego” i rozbudowywanego oprogramowania. To z kolei oznacza, że mamy bardzo szerokie możliwości eksperymentowania i rozwoju, a także dostęp do najnowszych technologii i komponentów, których używamy w codziennej pracy.

Używamy trzech grup algorytmów. Pierwsza to model do rozpoznawania intencji. Wszystko to co powie czy napisze klient jest rozpoznawane przez model językowy, który sprawdza czy wypowiedź należy do jednej ponad 150 intencji, które potrafi on obsłużyć. Drugi rodzaj to tzw. modele Entity Resolution, czyli takie, które z wypowiedzi wyłapują kluczowe parametry potrzebne nam do zrealizowania danych dyspozycji – np. kwota, data, odbiorca, powiedzmy w wypadku przelewu. Z kolei trzeci rodzaj modeli, którymi wspieramy się w kontekście asystenta, to modele Fuzzy Matchingowe.

Kiedy pracujemy w modelu on-premise wiadomo, że występuje pewien poziom naturalnych opóźnień, spowodowany koniecznością certyfikacji, ustaleń licencyjnych czy dostępnością sprzętu i zasobów ludzkich. Te elementy są rodzajem hamulca.

Jest Pan współtwórcą asystenta głosowego w bankowej aplikacji IKO. Proszę przybliżyć, jak powstawało to rozwiązanie i jakie są jego funkcjonalności?

Prace rozpoczęliśmy w drugiej połowie 2019 roku. Nadrzędną motywacją do stworzenia tego rozwiązania było przede wszystkim działanie proaktywne względem tego, co zaczyna się dziać na rynku finansowym, w bankowości osobistej i codziennej. Obszary te są teraz coraz szerzej przejmowane przez różnego rodzaju BigTechy czy rozwiązania FinTechowe i start-up’owe. Mamy np. Revoluta czy różne rozwiązania finansowe Google, które stopniowo „pukają do bram” naszych klientów. Opierają się one na nowoczesnych technologiach, które bardzo mocno promują m.in. technologie konwersacyjne. Chcieliśmy wyprzedzić te działania.

Podstawowym założeniem było, aby asystent zawierał w sobie duży, a jednocześnie stanowiący spójną całość, zestaw opcji, które byłyby miksem trzech typów funkcji. Transakcyjnych, a więc np. zrealizowanie głosowo przelewu, spłaty karty czy zmiany limitu transakcyjnego. Funkcji związanych z przekierowaniem na ekran IKO, czyli nawet kiedy asystent nie potrafi zrealizować danej funkcji, bo też naszym celem priorytetowym nie jest przerzucenie pełnej obsługi na niego, to zawsze jesteśmy w stanie przekierować klienta w odpowiednie miejsce w aplikacji. Zauważyliśmy, że klienci zaczęli korzystać z naszego asystenta jak z narzędzia stricte nawigacyjnego.

Z czego to wynika?

Dochodzimy do momentu, w którym upakowanie tych wszystkich funkcji na małym ekranie – których klienci spodziewają się po aplikacji w banku, ale też u innych dostawców – staje się coraz trudniejsze. Nawet jeśli aplikacja zaprojektowana jest zgodnie z wszystkimi pryncypiami, to i tak pewne rzeczy trudno jest znaleźć. Dlatego coraz więcej klientów pyta np. jak odszukać dane ustawienie, a asystent albo odpowiada komunikatem głosowym, tekstowym, albo bezpośrednio proponuje otwarcie konkretnego ekranu.

A wracając do trzech podstawowych funkcji…

Trzeci typ funkcji to umiejętności konwersacyjne – odpowiedzi na różnego rodzaju pytania dotyczące produktów lub usług, np. jak mogę zarejestrować numer telefonu w systemie BLIK? Te trzy grupy są podstawą, na której rozbudowujemy kolejne, nowe funkcje.

Jeśli chodzi o rozwój AI to pojęcie „sztuczna inteligencja sama się uczy” jest jeszcze na ten moment dużym nadużyciem. Sztuczną inteligencję nadal uczy człowiek. A dokładnie, AI uczy się, kiedy człowiek jej powie, że ma to robić. I na danych, które jej ten człowiek dostarcza. Nie jest bowiem tak, że jesteśmy w stanie uruchomić automatyczny algorytm, który na dziesiątkach tysięcy rozmów z naszymi klientami, sam będzie wiedział, że musi się skalibrować do takiego czy innego zestawu wypowiedzi. Muszą one zostać przejrzane, przefiltrowane czy skategoryzowane, po to, aby to w jaki sposób algorytm się ich nauczy było faktycznie pod kontrolą i działało tak jak należy.

Sukcesywnie rozwijamy też czwartą, związaną z bardziej inteligentną analityką wydatków. Już wkrótce pojawią się funkcje związane np. z ich podsumowywaniem i analizowaniem oraz z poradami finansowymi. Asystent wyszuka więc dość detalicznie różnego rodzaju wydatki i zasugeruje nam jakieś działania w związku z nimi.

Czy z takim botem będzie można prowadzić negocjacje?

Już teraz jest to możliwe. Takim przykładem jest bot do windykacji. Powiedzmy, że klient nie może zgodzić się na zaproponowane przez nas daty spłaty i podejmuje próbę negocjacji – nasz asystent spróbuje dojść do kompromisu, który usatysfakcjonuje obie strony. Natomiast jeśli miał Pan na myśli negocjacje dotyczące pożyczki, lokaty czy kredytu to jeszcze trochę czasu minie zanim udostępnimy takie możliwości. Ale z pewnością w niedalekiej przyszłości ta granica możliwości będzie się sukcesywnie przesuwać.

W jaki sposób wykorzystywane są w Waszym asystencie algorytmy AI?

Używamy trzech grup algorytmów. Pierwsza to model do rozpoznawania intencji. Wszystko to co powie czy napisze klient jest rozpoznawane przez model językowy, który sprawdza czy wypowiedź należy do jednej ponad 150 intencji, które potrafi on obsłużyć. Oczywiście liczba tych intencji jest stale powiększana. Mniej więcej raz w miesiącu dodajemy ich nowa grupę. Natomiast gdy wypowiedź jest spoza tego zakresu, asystent prosi o powtórzenie, dopytuje i naprowadza klienta.

Drugi rodzaj to tzw. modele Entity Resolution, czyli takie, które z wypowiedzi wyłapują kluczowe parametry potrzebne nam do zrealizowania danych dyspozycji – np. kwota, data, odbiorca, powiedzmy w wypadku przelewu. Z kolei trzeci rodzaj modeli, którymi wspieramy się w kontekście asystenta, to modele Fuzzy Matchingowe. Ich działanie polega na tym, że w przypadku, kiedy np. wiemy już, że klient chce wykonać przelew, znamy kwotę i odbiorcę, to taki model porówna adresata przelewu z listą odbiorców zdefiniowanych lub występujących w historii przelewów. To nam pozwala uelastycznić się na fakt, że klienci odmieniają nazwy adresatów albo na okoliczność, gdy dany fragment wypowiedzi może być ucięty bądź powiedziany niewyraźnie.

Czy tego typu rozwiązania są gotowe na rozpoznawanie naturalnego języka polskiego i przekazywanie odpowiednich wypowiedzi?

Tak, ale one zazwyczaj przekazują, która wypowiedź z zamkniętej puli jest w danym momencie adekwatna do zastosowania. Te technologie potrafią już generować tekst czy wejść w automatyczną konwersację maszynową i możemy np. wyuczyć pod tym kątem algorytmy klasy Transformer. Nie są one jednak na etapie, w którym moglibyśmy przekazać je „w ręce” klientów banku i pozwolić im realizować choćby transakcje finansowe. Do small talków nadają się jak najbardziej, ale do obsługi kwestii finansowych jeszcze długo nie.

Z jakich funkcji bota korzystają najchętniej klienci i o czym najczęściej z nim rozmawiają?

Nie ma jednej dominującej grupy funkcji. Tak naprawdę po trochu ze wszystkich trzech grup, które wcześniej wymieniłem. Nie brakuje też takich, którzy lubią sobie z botem porozmawiać na tematy kompletnie nie związane z bankowością.

Nadrzędną motywacją do stworzenia w PKO BP asystenta głosowego było przede wszystkim działanie proaktywne względem tego, co zaczyna się dziać na rynku finansowym, w bankowości osobistej i codziennej. Obszary te są teraz coraz szerzej przejmowane przez różnego rodzaju BigTechy czy rozwiązania FinTechowe i start-up’owe.Mamy np. Revoluta czy różne rozwiązania finansowe Google, które stopniowo „pukają do bram” naszych klientów. Opierają się one na nowoczesnych technologiach, które bardzo mocno promują m.in. technologie konwersacyjne. Chcieliśmy wyprzedzić te działania.

Może Pan zdradzić czego dotyczą takie rozmowy?

Ich przekrój tematyczny jest bardzo duży. Od tego kto wygrał ostatnie wybory, poprzez te dotyczące gry Cyberpunk, aż po propozycje matrymonialne. Widać ewidentnie, że ludzie mają potrzebę socjalizacji i to jest kolejny element, który obiecaliśmy sobie w 2021 roku rozwijać np. poprzez rozbudowę small talków.

Wynikałoby z tego, że polskie społeczeństwo jest już mentalnie gotowe na wykorzystywanie tego typu technologii?

Na pewno nie wszyscy. I my – mocno wchodząc w tego rodzaj technologię oraz udostępniając ją na skalę, której w Polsce jeszcze nie było, bo choć wdrożonych botów i chatbotów w naszym kraju jest dużo, to są one jeszcze mocno ograniczone – mieliśmy tego pełną świadomość. Jednak jest już spora grupa gotowa na takie rozwiązania. Świadczyć może o tym 50 tys. rozmów przeprowadzanych przez naszego asystenta z klientami każdego miesiące. Jest to poziom porządnego Call Center. I ta grupa użytkowników powoli, ale systematycznie rośnie.

A czy asystent potrafi zareagować, kiedy w rozmowie klient ujawnia za dużo informacji?

Potrafi zareagować w zakresie prób ujawnienia danych osobowych czy podania hasła. Jeśli chodzi natomiast o elementy danych wrażliwych, to my je i tak chronimy, zabezpieczamy. Więc nie jest tak, że nawet gdy klient je poda to one gdzieś później wypłyną i ktoś z nich skorzysta.

Jakie największe wyzwania stoją więc przed PKO BP czy też całym sektorem finansowym, jeśli chodzi o zapewnienie skutecznej i bezpiecznej komunikacji cyfrowej?

Zabezpieczanie danych wrażliwych na pewno jest jednym z głównych wyzwań. Ale obok niego postawiłbym ex aequo kilka innych. Choćby kwestię związaną z Covid-19, a więc przenoszenia wielu sfer z tzw. realu do przestrzeni cyfrowej. Proces ten wiąże się ze wzmożonym zainteresowaniem przestępców, atakami phishingowymi i innymi polegającymi na wyłudzaniu tożsamości czy nieautoryzowanego dostępu do kont. Bezpieczeństwo naszych kanałów komunikacji i aplikacji jest kluczowe, tak samo jak poczucie bezpieczeństwa ich użytkowników. Kolejna kwestia to zapewnienie bezpieczeństwa samemu bankowi – ciągłości usług i stabilności jego systemów IT.

Jak będzie wyglądała przyszłość Państwa asystenta? Rozumiem, że AI cały czas się uczy na konkretnych przykładach…

Jeśli chodzi o rozwój AI to pojęcie „sztuczna inteligencja sama się uczy” jest jeszcze na ten moment dużym nadużyciem. Sztuczną inteligencję nadal uczy człowiek. A dokładnie, AI uczy się, kiedy człowiek jej powie, że ma to robić. I na danych, które jej ten człowiek dostarcza. Nie jest bowiem tak, że jesteśmy w stanie uruchomić automatyczny algorytm, który na dziesiątkach tysięcy rozmów z naszymi klientami, sam będzie wiedział, że musi się skalibrować do takiego czy innego zestawu wypowiedzi. Muszą one zostać przejrzane, przefiltrowane czy skategoryzowane, po to, aby to w jaki sposób algorytm się ich nauczy było faktycznie pod kontrolą i działało tak jak należy. W innym razie algorytm będzie dryfował w nieznanym sobie kierunku. Musi więc występować uczenie z nadzorem człowieka.

Patrząc natomiast na rozwój od strony czysto biznesowej to będziemy pracować nie tylko nad funkcjami, które już mamy – np. kolejnymi transakcyjnymi – ale chcemy także rozbudowywać elementy doradcze, wymagające już większej kreatywności. Czyli coś czego nie można znaleźć właściwie w aplikacji mobilnej polskiego Banku. Będziemy też starać się, aby asystent był łatwiej i szybciej dostępny. Od grudnia 2020 roku mamy już funkcję umożliwiającą uruchomienie naszego asystenta za pomocą Siri. Kolejne wprowadzane ułatwienia będą realizowane np. pod kątem osób niewidomych.

Jeśli chodzi o analitykę danych i AI, zazwyczaj mówimy o przetwarzaniu danych potencjalnie wrażliwych czy bardzo delikatnych. Przykładowo chatbot, asystent głosowy czy voicebot, to de facto nowe kanały komunikacji, w ramach których trzeba domyślnie przyjmować, że klient podczas rozmowy z nimi może właściwie powiedzieć wszystko. My natomiast musimy, to co klient powie zabezpieczyć zgodnie z regulacjami. I nie mam tu na myśli jedynie takich danych, jak hasło do konta czy jego saldo.

A wychodząc poza obszar samego asystenta?

Na pewno będziemy realizować kolejne procesy na infolinii – np. inteligentne sterowanie. Zamierzamy wspierać procesy windykacyjne czy sprzedażowe, a technologie konwersacyjne na pewno pojawią się też w innych kanałach, choćby na stronie internetowej. Trzeba też pamiętać, że w moim zespole nie zajmujemy się jedynie chatbotami czy asystentami głosowymi, ale także wizją komputerową, przetwarzaniem języka naturalnego i dźwięku czy inteligentnego przetwarzania dokumentów. Pomysłów na wsparcie pracy banku mamy bardzo dużo, a ta technologia daje coraz więcej możliwości.

Czy na polskim rynku brakuje doświadczonych specjalistów z zakresu AI i uczenia maszynowego?

Ciężko odpowiadać mi za cały rynek, ale myślę, że tak. Życzyłbym sobie, aby w Polsce powstawało jak najwięcej studiów kształcących w kierunku takich technologii i to nie tylko w kontekście twardej matematyki, informatyki czy programowania, ale także w różnych pokrewnych domenach, które są potrzebne AI. W swoim zespole zatrudniam np. osobę, która jest z wykształcenia lingwistą. Tacy specjaliści też są potrzebni. Samo zaprogramowanie bota to jedna rzecz, ale to, aby mówił on w sposób zrozumiały i przyjemny dla ucha, to jest już zupełnie inna kwestia. Przykłady mniej oczywistych specjalistów potrzebnych AI można by mnożyć. Sztuczna inteligencja to w końcu coś więcej niż tylko algorytmy i programowanie.

Jak Pan ocenia obecne regulacje prawne dotyczące zastosowania AI w Polsce / Unii Europejskiej?

Są na poziomie raczkującym. Powstają dopiero zestawy ogólnych wytycznych, swego rodzaju polityki czy dokumenty kierunkowe dotyczące rozwoju tej technologii i jej uregulowania. Dobrze by było, gdyby tworzono je dużo szybciej, ale prawda jest też taka, że ta domena wciąż dynamicznie się rozwija i nie tylko Polska czy Unia Europejska ma duże problemy z nadążaniem za jej rozwojem.

Historie z ostatnich lat pokazują zresztą jak wielką bezradnością wykazują się tak wielkie rządy, jak choćby Stany Zjednoczone w kontekście BigTechów, które po swojemu zawładnęły przestrzenią publiczną w zakresie komunikacji. Powinno się więc jak najszybciej uporać z tym problemem i przede wszystkim wyjść ze świata pisania luźnych polityk czy „okrągłych” dokumentów. Należy wejść w obszar regulacji, które spowodują, że ci najwięksi gracze – posiadający gigantyczne zasięgi – przestaną być kompletnie bezkarni. To jest największe zagrożenie, bo jeśli AI zaczyna wkraczać na szerokie wody życia społecznego, politycznego czy gospodarczego to zaczyna się robić bardzo źle.

Tagi

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *