Cloud computingSztuczna inteligencjaStrefa PKO BPCIOPolecane tematy

AI poprowadzi klientów po szerokiej ofercie naszych usług

Z Piotrem Krawczykiem, dyrektorem Pionu Rozwoju i Utrzymania Aplikacji w PKO Banku Polskim rozmawiamy o najważniejszych trendach technologicznych na najbliższe lata i tym, w jaki sposób zostaną one wpisane w strategię rozwoju IT w banku.

AI poprowadzi klientów po szerokiej ofercie naszych usług

Jakie będą priorytety PKO Banku Polskiego w obszarze technologii w najbliższym roku lub dwóch latach i… czemu będzie to sztuczna inteligencja?

W mijającym roku sztuczna inteligencja była numerem 1. w debacie publicznej, jednak dla nas nie jest tylko tematem do dyskusji. Staje się ważnym narzędziem, które pozwoli docelowo wdrożyć hiperpersonalizację i spojrzeć inaczej na potrzeby klientów. Mam na myśli nie tylko przygotowanie właściwej oferty dla konkretnego klienta, ale także rozpoznanie odpowiedniego czasu, miejsca i kontekstu, w jakim on aktualnie się znajduje. Dziś klienci korporacyjni otrzymują od nas wysoko zindywidualizowane produkty. Chcemy, aby dostęp do podobnej oferty mieli też klienci indywidualni.

W hiperpersonalizacji dane o klientach są paliwem dla algorytmów sztucznej inteligencji. W tym obszarze zdecydowaliśmy się na migrację danych do chmury. Tam dostępne są już gotowe modele analityczne i zaawansowane algorytmy Machine Learning. Dzięki temu jesteśmy w stanie stworzyć bardzo elastyczne, zwinne środowisko pracy dla naszych Data Scientistów i analityków. To z kolei pozwala nam zasilać w odpowiedni zestaw danych systemy realizujące kampanie marketingowe czy procesy sprzedażowe. Na pewno będziemy to podejście rozwijać w kolejnych latach.

Hiperpersonalizacja to nie wszystko. Mamy dużo więcej projektów wykorzystujących sztuczną inteligencję. Od lat skupiamy się np. na rozwoju chatbotów, które są szeroko stosowane w call center, dziale windykacji, jak również w naszych kanałach elektronicznych. W przyszłym roku udostępnimy nowe wersje znanych już naszych rozwiązań typu Voicebot stosowanych w Contact Center i aplikacji mobilnej IKO, w postaci asystenta głosowego. Mamy także wewnętrzne projekty, które bazują na dużych modelach językowych. Jednym z zastosowań jest „PKO Prosto”, dzięki któremu jesteśmy w stanie upraszczać nasze komunikaty skierowane do klientów, pozbawiać je „branżowych”, często niezrozumiałych dla nich sformułowań.

Docelowo IKO ma być tzw. superaplikacją. Aby jednak jej użytkownik nie „pogubił się” w tej ofercie, konieczna jest hiperpersonalizacja i wykorzystanie AI. To sztuczna inteligencja poprowadzi klientów po szerokiej ofercie usług udostępnianych przez PKO Bank Polski.

Rozpoczynamy też projekty AI skupiające się na obszarze IT, przede wszystkim związane z automatyzacją testów. Chcemy osiągnąć lepszy Time to Market w dostarczanych przez IT rozwiązaniach. Narzędzia bazujące na algorytmach AI będziemy wykorzystać też w obszarze CyberSecurity, do monitoringu działania naszych systemów. Wszystkie te projekty są elementem naszej strategii AI@Scale. W efekcie chcemy przygotować organizację by móc powszechnie wykorzystywać sztuczną inteligencję w banku.

Czy w zakresie tworzeniu oprogramowania także chcielibyście wykorzystać AI?

Mogę na razie powiedzieć jedynie, że jesteśmy na etapie analizy dostępnych narzędzi.

Wróciłbym do tematu danych, które migrujecie do chmury. Dużo ich już tam jest?

Obecnie zbieramy dane, które pozwalają nam przygotowywać indywidualne oferty dla klientów. Jesteśmy cały czas w trakcie procesu migracji. Chcemy wprowadzić model bazujący na koncepcji Data Mesh. To podejście do architektury danych mające na celu ułatwienie zarządzania nimi w dużej skali, zwłaszcza w rozproszonych i złożonych środowiskach. Dzięki Data Mesh będziemy mogli dane – w formie usługi – „wystawiać” każdemu właścicielowi procesu w banku.

Podejście Data Mesh jest także skuteczne z punktu widzenia poprawy jakości danych. Mamy w banku do czynienia z danymi twardymi, które powinny być w organizacji spójne i udostępniane wszystkim użytkownikom w ten sam sposób. Mamy też dane nieustrukturyzowane, a to na nich w dużej mierze działamy i będziemy działać.

Jeśli wchodzimy do chmury, to raczej w poszukiwaniu nowych rozwiązań, narzędzi, gotowych algorytmów AI/ML dostarczanych przez największych vendorów. Usługi cloud computing nie są już dla nas driverem do zmiany, a raczej fundamentem, z którego korzystamy.

W ramach koncepcji Data Mesh jednostki biznesowe będą odpowiedzialne za jakość danych dostarczanych w organizacji. Będzie też możliwa bardzo szybka wymiana informacji. Takie podejście w konsekwencji zwiększa też potencjał zastosowania sztucznej inteligencji.

Migrujecie dane do chmury, bo są tam gotowe algorytmy, które ułatwiają ich analizę? W jednym z naszych wywiadów Orange Polska wspominał, że jednym z celów migracji ich bazy danych do chmury była chęć skorzystania ze zintegrowanej platformy do tworzenia i wdrażania modeli uczenia maszynowego.

W oparciu właśnie o narzędzia w chmurze zbudowaliśmy naszą platformę MLOPS. Wykorzystujemy ją w obszarach ryzyka i biznesu.

Jakie, poza AI, wymieniłbyś rozwiązania i technologie, które mogłyby być motorem zmiany? Może chmura obliczeniowa?

Jesteśmy na etapie, kiedy możemy mówić o powszechnym wykorzystaniu chmury przez nasz bank. Jesteśmy obecni zarówno w Microsoft Azure, jak i w Google Cloud Platform. Mamy też chmurę prywatną. Dzięki temu jesteśmy w stanie korzystać z dowolnej technologii, niezależnie od tego, gdzie ona powstanie lub w jakim modelu zostanie udostępniona.

Dziś, jeśli wchodzimy do chmury, to raczej w poszukiwaniu nowych rozwiązań, narzędzi, gotowych algorytmów AI/ML dostarczanych przez największych vendorów. Usługi cloud computing nie są już dla nas driverem do zmiany, a raczej fundamentem, z którego korzystamy. Kolejny rok będzie dla PKO Banku Polskiego tym, w którym nastąpi dalszy wysyp rozwiązań bazujących na tych chmurowych fundamentach.

To, co jest dla nas istotne to wydajność, a na nią wpływa architektura naszego oprogramowania, a także znajdująca się „pod spodem” chmura obliczeniowa. Ciężko wyobrazić sobie, że fundamentów chmurowych w organizacji takiej jak nasza mogłoby nie być. I mimo, że podejście multicloud jest dla nas kosztowne m.in. ze względu na budowanie różnych kompetencji w zależności od rodzaju chmury, daje nam gwarancję, że – niezależnie gdzie pojawi się jakaś technologia czy innowacja ważna dla naszego biznesu – będziemy w stanie szybko z niej skorzystać.

W hiperpersonalizacji dane o klientach są paliwem dla algorytmów sztucznej inteligencji. W tym obszarze zdecydowaliśmy się na migrację danych do chmury. Tam dostępne są już gotowe modele analityczne i zaawansowane algorytmy Machine Learning.

Pamiętamy też o potrzebie dywersyfikacji technologii i dostawców. Nie chcemy mieć jednego partnera z dużą przewagą, unikamy vendor lock. Dużo mamy też własnych technologii. Część z nich powstała w oparciu o rozwiązania open source. Choć i w ich przypadku – ze względu na regulatora – i tak wymagane jest wsparcie partnerów technologicznych. Szybko jesteśmy w stanie zmigrować rozwiązania z chmury publicznej do chmury prywatnej bez konieczności znaczącej przebudowy oprogramowania.

A co myślicie o coraz popularniejszych platformach Low Code / No Code?

Od lat stosujemy i rozwijamy low code. W oparciu o rozwiązania niskokodowe powstały w banku setki procesów skonfigurowanych i wdrożonych bezpośrednio przez biznes. Dziś myślimy o Low Code w połączeniu z algorytmami AI. Dzięki temu będziemy mogli jeszcze więcej pracowników włączać bezpośrednio w tworzenie nowych funkcji czy nawet całych rozwiązań. Budujemy zespoły, które samodzielnie – bez konieczności angażowania IT – będą mogły wykonywać takie prace. By same generowały pomysły i same były w stanie je wdrażać. Nazywamy to demokratyzacją IT.

Do tego potrzeba jest też właściwa technologia, za której dostarczenie odpowiada mój zespół. Rozwój tego kierunku będzie dużym motorem do zmiany, która pozwoli nam dokończyć cyfrową transformację. Choć już dziś „biznes” lub multidyscyplinarne małe zespoły zwinne są w stanie w 90 proc. tworzyć samodzielnie rozwiązania w oparciu o nasze platformy techniczne, w tym użycie rozwiązań niskokodowych.

Chcemy włączać kolejne osoby w proces rozwoju oprogramowania. Nie każda osoba non-tech musi zostać programistą. Może pełnić rolę analityka biznesowego lub systemowego, czy testera. Może też zostać konfiguratorem jakiegoś procesu. Chodzi o to, by osoby odpowiedzialne za procesy biznesowe były w stanie uczestniczyć w ich rozwoju, wręcz same go prowadzić.

Rozpoczynamy projekty AI skupiające się na obszarze IT, przede wszystkim związane z automatyzacją testów. Narzędzia bazujące na algorytmach AI będziemy wykorzystać też w obszarze CyberSecurity. Wszystkie te projekty są elementem naszej strategii AI@Scale.

Podobny model stosujemy, jeżeli chodzi o analitykę danych. Nasi Data Scientists i analitycy są rozproszeni w biznesie i w ryzyku, gdzie samodzielnie tworzą niezbędne narzędzia. IT odpowiada jedynie za warstwę technologiczną lub dostarczanie odpowiednich rozwiązań w chmurze oraz wspiera użytkowników w trudniejszych przypadkach, które stanowią 10-20 proc. całości.

W kontekście tego w przyszłości raczej nie skupiałbym się na dynamicznym powiększaniu obszaru technologii, lecz raczej na dostarczaniu przez nas technologii, z której łatwo będą mogli skorzystać koledzy z biznesu, czy to po upskillingu, czy reskillingu.

Ale na końcu, zanim jakieś rozwiązanie stworzone przez biznes wejdzie na produkcję, odbywa się jego kontrola?

Oczywiście. Dlatego od kilku lat mocno inwestujemy w automatyzację DevSecOps. Dzięki temu dzisiaj, w wielu obszarach, możemy wdrażać nowe funkcjonalności w ciągu dnia. Szczególnie w obszarze aplikacji nie ma już czegoś takiego, jak długotrwałe przerwy nocne, czy weekendy spędzane na wdrożeniu nowej wersji.

Wszystko zmierza w kierunku architektury zwinnej, która pozwala na takie podejście. To migracja do chmury była dla nas pretekstem, aby zmieniać architekturę IT, wejść „mocniej” w mikroserwisy i konteneryzację. Pozwalają one na szybsze i bardziej zwinne skalowanie infrastruktury IT.

Jeśli mógłbyś wskazać jedną korzyść dla banku, albo Waszych klientów, jeśli chodzi o chmurę obliczeniową, to co by to było? Często się mówi o skrócenie Time-to-Market.

Dzięki chmurze jesteśmy w stanie szybciej reagować na zwiększoną aktywność naszych klientów. Ale chmura jest też niezbędna w projektach związanych z hiperpersonalizacją. Wymaga ona dodatkowej mocy związanej z przetwarzaniem danych, a przy naszej skali działania oczekiwania są bardzo duże.

Chcemy wprowadzić model bazujący na koncepcji Data Mesh. To podejście do architektury danych mające na celu ułatwienie zarządzania nimi w dużej skali. Dzięki temu będziemy mogli dane, w formie usługi, „wystawiać” każdemu właścicielowi procesu w banku.

Liczba naszych aktywnych aplikacji IKO to już 7,8 mln, a wciąż ją rozbudowujemy i dodajemy do niej nowe funkcje i usługi. Jest już ich w sumie ponad 100, w tym kilkanaście usług dodatkowych, których lista będzie się powiększać dzięki łatwemu dostępowi dla partnerów do naszej platformy usług dodatkowych.

Docelowo IKO ma być tzw. superaplikacją. Aby jednak jej użytkownik nie „pogubił się” w tej ofercie, konieczna jest właśnie hiperpersonalizacja i wykorzystanie algorytmów AI. To sztuczna inteligencja poprowadzi klientów po szerokiej ofercie usług udostępnianych przez PKO Bank Polski. Poza tym, że chcemy oferować im nowe rozwiązania, więc jednocześnie inwestujemy w analizę potrzeb klientów, aby lepiej dostosowywać ofertę.

Czy GenAI jest na radarach PKO BP? Bank będzie korzystał z własnych modeli językowych czy gotowych, dostępnych już na rynku?

Rozpoczęliśmy pracę zarówno nad własnymi modelami, jak i rozpoznajemy narzędzia, które udostępniają w swoich chmurach Microsoft i Google. Równolegle szukamy rozwiązania, które będziemy mogli wdrożyć z myślą o całej organizacji. Te dostępne dziś nie są tylko dla nas. Nie są wydzielone w osobnej infrastrukturze. Choć zarówno Microsoft, jak i Google pracują nad odpowiadającymi na nasze potrzeby rozwiązaniami i być może w 2024 roku będzie to już możliwe.

Dopuściliśmy też pilotażowo, użycie ChatGPT. Pracownicy z różnych obszarów włączyli się w projekt i jesteśmy na etapie zbierania potrzeb i sprawdzania możliwości. Robimy swego rodzaju testy użyteczności tej technologii i opracowujemy potencjalne pomysły na jej wykorzystanie. W 2024 roku chcemy to rozwiązanie przygotować do szerszego użycia. W przyszłym roku odbędzie się też organizowany przez bank hackathon, który będzie dotyczyć właśnie Generative AI.

W kontekście tego w przyszłości raczej nie skupiałbym się na dynamicznym powiększaniu obszaru technologii, lecz raczej na dostarczaniu przez nas technologii, z której łatwo będą mogli skorzystać koledzy z biznesu, czy to po upskillingu, czy reskillingu.

Zastosowanie generatywnej AI musi się odbywać zgodnie z obowiązującymi regulacjami związanymi np. z ochroną danych oraz ich bezpiecznym procesowaniem i przechowywaniem. Rozwijając zastosowanie GenAI w banku w końcu „dojdziemy” do danych klientów, a te są szczególnie chronione. Nie chodzi o to, aby być pierwszym w wyścigu, ale by wdrażać tego typu rozwiązania w sposób w pełni świadomy w organizacji, a przede wszystkim, by te narzędzia służyły klientom.

Jest też sporo rozwiązań open source czy narzędzi komercyjnych, które możemy zastosować w środowisku on-premise. Tak więc uruchomiliśmy równolegle kilka strumieni działań w zakresie rozwiązań generatywnej sztucznej inteligencji, które pozwolą nam przygotować się na pełne spektrum możliwych zastosowań.

Gdzie szukacie inspiracji do wprowadzanych zmian? W innych krajach europejskich, Stanach Zjednoczonych, czy może w Azji?

Przede wszystkim w Azji i na Bliskim Wschodzie. Naturalnie, ze względu na to, że korzystamy z rozwiązań Google i Microsoft, część innowacji przychodzi do nas ze Stanów Zjednoczonych. Warto uczestniczyć w amerykańskich edycjach konferencji tych vendorów. Tam można spotkać się z członkami zespołów, którzy te rozwiązania rozwijają i potrafią o nich opowiadać.

Warto też czerpać przykłady z innych branż, np. e-commerce. Efektem szerszego patrzenia na rynek jest nasz nowy produkt „PKO Płacę później”, który pozwala na dokonywanie zakupów z odroczoną płatnością. Usługa na koniec roku miała już ponad 100 tys. użytkowników. Innym przykładem jest budowa ekosystemu usług dodatkowych w naszych kanałach elektronicznych, np. ubezpieczeń czy możliwości zakupu biletów komunikacyjnych. Na pewno w tym kierunku chcemy dalej się rozwijać.

Czy w takim razie strategie cyfryzacji nadal są planowane w perspektywie 2-3 lat?

Tak, bo trzeba pamiętać, że choć poszczególne zmiany przeprowadzane są teraz w miesiącach, a nie latach, to jednak transformacja technologiczna wymaga czasu. Nasza obecna strategia została zaplanowana na trzy lata 2023-2025 i to jest też minimalny okres, w którym można przeprowadzić głębsze zmiany technologiczne. W trakcie zmian biznes chce swobodnie działać, a zmiana technologiczna powinna być dla niego niezauważalna, co wydłuża wprowadzanie innowacji.

Jakie w latach 2023-2025 mają dokonać się najważniejsze zmiany technologiczne?

Na pewno jest to rozbudowa kanałów elektronicznych, w tym aplikacji mobilnej, w której część usług jest już oparta o chmurę. Dokonujemy zmian w kanałach elektronicznych także po to, aby móc łatwiej budować ekosystem usług dodatkowych, a w przyszłości wdrożyć rozwiązania do hiperpersonalizacji oferty.

Równolegle toczy się szereg projektów w zakresie analityki i przechowywania danych. Realizujemy je w oparciu o fundamenty chmurowe i dostępne tam narzędzia MLOPS. Zmiana ta obejmuje kolejne obszary działalności banku.

Trzeci obszar zmian technologicznych to wyjście z mainframe i przejście na platformy otwarte. Mamy największą w Polsce instalację platformy IBM. Efektem tego procesu ma być zwiększenie elastyczności działania i możliwość łatwiejszej integracji z usługami cloud computing. Kilka systemów zostało już przeniesionych na nową platformę. Docelowo proces obejmie też nasz system centralny, który dzisiaj oparty jest o język COBOL.

Czy sam bank będzie zmieniał się nie tylko technologicznie, ale i organizacyjnie?

Jak już wspomniałem, chcemy oddać jak najwięcej wpływu na wprowadzane zmiany małym, zwinnym zespołom DevSecOps. Na pewno wymaga to dostosowania kultury organizacyjnej. Dla mnie osobiście ważne jest, aby stworzyć innowacyjne środowisko, w którym poszczególne, multidyscyplinarne zespoły mają odwagę brać odpowiedzialność za budowanie nowych rozwiązań i potrafią szukać alternatywnych ścieżek dojścia do tych rozwiązań.

Szczególnie, że technologia będzie się szybko zmieniać. Coraz szybciej będą wchodzić nowe rozwiązania. Podejście hierarchiczne nie sprawdzi się przy tak dynamicznych zmianach. Jednocześnie na rynek pracy wchodzą nowe pokolenia, które oczekują, że środowisko pracy będzie właśnie w taki sposób kształtowane. Pracownicy chcą mieć poczucie sensu, wpływu i niezależność w działaniu.

Czy częścią tej kultury będzie zezwolenie na popełnianie błędów?

Na popełnianie błędów i eksperymentowanie. Niepowodzenia przy tak dużej skali zmian zawsze się pojawiają. Najważniejsze jest, aby wiedzieć, co zrobić w momencie, gdy widać, że obrany kierunek działań nie spełnia zakładanych oczekiwań. Istotne jest, aby umieć w odpowiednim momencie przerwać projekt i podejść do niego w innych sposób. Dotyczy to także wyboru właściwej technologii, w chwili gdy pojawia się coś lepszego, bardziej efektywnego. Taki podejście pozwala skutecznie mierzyć się z największymi wyzwaniami.

Tagi

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *