Sztuczna inteligencjaSektor finansowyStrefa PKO BPPolecane tematy

Będziemy koncentrować się na tworzeniu mniejszych, bardziej wyspecjalizowanych modeli AI

AI x BIZNES

Z Pawłem Klimiukiem, Team Leader AI/ML w PKO Banku Polskim, rozmawiamy o: szczegółach związanych z tworzeniem, douczaniem, badaniem i monitorowaniem modeli sztucznej inteligencji; realizowanych projektach wykorzystujących „tradycyjną” AI oraz Generative AI; kosztach i skuteczności tego typu rozwiązań; szukaniu najlepszych scenariuszy użycia; a także „presji” ze strony biznesu na realizację projektów GenAI.

Będziemy koncentrować się na tworzeniu mniejszych, bardziej wyspecjalizowanych modeli AI

Od ostatniego wywiadu na łamach ITwiz na temat wykorzystania algorytmów AI w PKO Banku Polskim na początku 2023 roku wydaje się, że wszystko się zmieniło. Dziś mówi się chyba wyłącznie o GenAI. Jakie jest Wasze podejście do projektów wykorzystujących generatywną, sztuczną inteligencję?

Ostrożne. Z jednej strony, widzimy w nich duży potencjał i spore zainteresowanie biznesu. Odczuwamy nawet pewną „presję”, bo konkurencja również dokonuje pierwszych wdrożeń tej technologii.

Z drugiej strony, implementacja tego typu rozwiązań wymaga czasu. Niesie także ze sobą pewne ryzyka, które muszą być przez nas dokładnie ocenione. Dlatego też monitorujemy to, co dzieje się w obszarze AI w zakresie przepisów prawnych. Sprawdzamy, co będziemy mogli wdrażać, jeśli chodzi o modele GenAI.

Co do potencjału, to widzimy go przede wszystkim w rozbudowie naszych botów w call center oraz chacie, tak aby działały jako rozwiązania hybrydowe. Dzięki takiemu podejściu będziemy w stanie obsługiwać klientów w tych obszarach gdzie rozwiązania klasyczne słabo sobie radzą.

Kolejne obszary o dużym potencjale zastosowania GenAI to przede wszystkim wyszukiwarki semantyczne wzbogacone o komponent generyczny RAG – Retrieval-Augmented Generation. Wyobraźmy sobie, że dzięki takim rozwiązaniom jesteśmy w stanie efektywnie przeszukiwać nasze bazy wiedzy wewnętrzne i zewnętrzne uzyskując odpowiedź językiem naturalnym.

Warto również wspomnieć o zastosowaniu GenAI w programowaniu. Zdecydowanie wpływa to na efektywność pracy deweloperów.

Uruchomienie tego typu projektów uzależniacie od regulacji i przepisów prawnych dotyczących AI?

Nie możemy czekać na to, aż regulacje dotyczące AI zostaną wdrożone, bo nie wiadomo kiedy to nastąpi. Oczywiście monitorujemy je, ale uważamy, że warto zacząć od implementacji rozwiązań GenAI wewnętrznie. Dzięki temu można badać ich potencjał, ale także sprawdzić słabe strony czy lepiej oszacować ryzyko związane z udostępnieniem ich klientom. I to robimy. Nie udostępniamy jednak jeszcze takich rozwiązań produkcyjnie, więc nie mogę zdradzić więcej szczegółów.

W jaki sposób wykorzystujecie „tradycyjne” algorytmy AI / ML w banku?

Od dłuższego czasu mamy voiceboty, które obsługują klientów na infolinii. W tym rozwiązaniu stosujemy klasyczne modele klasyfikujące intencje klientów.

Podobne rozwiązanie stosujemy w aplikacji mobilnej IKO, w której można rozmawiać z asystentem głosowym lub pisać na czacie. Asystent rozpoznaje ok. 270 tematów. Potrafi obsługiwać 22 procesy główne i funkcje pomocnicze. Jest również możliwość przekierowania na poszczególne ekrany IKO. Jeżeli klient będzie chciał podsumować wydatki w danej kategorii lub u konkretnego sprzedawcy wówczas nasz asystent w IKO jest w stanie przeprowadzić taką analizę. W lutym 2024 r. odnotowaliśmy ok. 1,4 mln zapytań do naszego asystenta.

Obszary o dużym potencjale zastosowania GenAI to np. wyszukiwarki semantyczne wzbogacone o komponent generyczny RAG. Wyobraźmy sobie, że dzięki takim rozwiązaniom jesteśmy w stanie efektywnie przeszukiwać nasze bazy wiedzy wewnętrzne i zewnętrzne uzyskując odpowiedź językiem naturalnym.

Rozwijamy też AI wewnątrz banku, np. do efektywnego przeszukiwania baz wiedzy. Pozwala to na szybkie dotarcie do informacji, szybszą obsługę klienta

Kolejne rozwiązania, to te oparte o Computer Vision wykorzystywane np. do automatyzacji procesowania dokumentów. Oparte o technologię OCR pozwalają na efektywne zaczytywanie treści dokumentu do formatu, który można poddawać dalszym przetworzeniom. Mamy już procesy które automatyzują elektroniczny obieg dokumentów w banku, gdzie treść dokumentu po zaczytaniu przez OCR możemy sklasyfikować, dokonać ekstrakcji metadanych i w dalszej kolejności przesłać do jednostki, która zajmuje się obsługą danego pisma.

Rozwinęliśmy też aplikację PKO Prosto, która upraszcza język bankowy. Przy pomocy AI badamy trudność napisanego tekstu, oceniamy go i dajemy użytkownikowi podpowiedzi jak powinien go zmienić, aby był bardziej zrozumiały. Docelowo chcemy, aby algorytm automatycznie upraszczał to, co napiszemy.

W jaki sposób badacie i oceniacie skuteczność takich rozwiązań?

Modele które zostaną wytrenowane, poddawane są szeregom testów zanim trafią na środowisko produkcyjne. Stosujemy szereg miar statystycznych do oceny skuteczności wytrenowanych modeli. Ich dobór zależy od problemu jakim się zajmujemy. Przykładowo dla problemu klasyfikacji popularną miarą, na którą zwracamy uwagę jest F1-score.

Należy podkreślić, że często wybór odpowiednich miar zależy od danego zagadnienia i oczekiwań biznesu. Oprócz miar statystycznych stosujemy też testy wewnętrzne Friends & Family, aby zaangażować ludzi do końcowej oceny rozwiązania. Kiedy nasze rozwiązanie AI trafia na środowisko produkcyjne, poddawane jest dodatkowo cyklicznemu monitoringowi tak, aby wcześniej reagować na pojawiające się problemy.

Wracając do modeli, na Hugging Face jest ich ponad 500 tys. i wciąż powstają kolejne. Jak zorientować się, co jest wartościowe w takim gąszczu możliwości? W jaki sposób połączyć je z czymś, co będzie dobrym rozwiązaniem dla biznesu?

Pierwszym krokiem, od którego powinniśmy zacząć to sprawdzenie czy klasyczne rozwiązania nie są skuteczne w danym problemie. Pamiętajmy, że modele na Hugging Face to ciężkie modele, które często wymagają kart graficznych do efektywnego działania. Jeżeli okaże się, że klasyczne podejście nie jest satysfakcjonujące warto wówczas przejrzeć benchmarki modeli na tym serwisie i przetestować przykładowo modele z top 3. Kolejnym krokiem to fine-tuning wybranego modelu bazowego na naszych danych. Ostatecznie mając kilka wytrenowanych modeli jesteśmy w stanie porównać każdy z nich i wybrać ten najlepszy.

Należy podkreślić, że nawet najlepszy model będzie bezużyteczny,  jeżeli nie będzie miał zastosowania biznesowego. Dlatego przed wyborem konkretnego podejścia należy dokładnie określić cel biznesowy jaki chcemy osiągnąć. Często już na tym etapie selekcjonujemy możliwie najlepsze rozwiązania dla danego problemu.

Czy taki fine-tuning robicie własnymi siłami czy skorzystacie z usług zewnętrznych dostawców?

Fine-tuning robimy własnymi siłami. To co nas może ograniczać, to brak lub mała ilość danych, a także niewystarczające moce obliczeniowe.

Nie możemy czekać na to, aż regulacje dotyczące AI zostaną wdrożone, bo nie wiadomo kiedy to nastąpi. Oczywiście monitorujemy je, ale uważamy, że warto zacząć od implementacji rozwiązań GenAI wewnętrznie. Dzięki temu można badać ich potencjał, ale także sprawdzić słabe strony czy lepiej oszacować ryzyko.

Wspominałeś, że ważne jest dla Was, aby modele dobrze odzwierciedlały język polski. Czy duże, polskie modele językowe takie, jak Bielik, PLLuM czy Qra, mają szansę zostać wykorzystane przez PKO Bank Polski?

Model Bielik nie może być wykorzystany z uwagi na licencję. Jeżeli chodzi o model PLLuM to jeszcze go nie ma. Nie wiemy na jakiej licencji będzie działał ten model oraz czy będzie wystarczająco dobry. Qra z kolei to model bazowy, wyuczony na dużej ilości tekstów polskich i angielskich.

Taki model będzie w stanie generować token po tokenie, ale nie będzie potrafił wykonać konkretnej instrukcji jak np. ChatGPT. Konieczne jest w związku z tym jego dostrojenie do konkretnych instrukcji. Czyli jeżeli chcielibyśmy aby Qra nauczyła się upraszczać tekst, musielibyśmy zbudować zbiór danych zawierających instrukcję tekstów przed i po uproszczeniu. Ostatecznie na takim zbiorze danych dostroić model do tych instrukcji. Oczywiście typów instrukcji może być znacznie więcej. Bardzo istotne jest, aby zbiory danych były bardzo duże i dobrej jakości, gdyż tylko wtedy dostrojone modele będą dobrze działać.

Ostatecznie czy ten czy inny model może być wykorzystany przez PKO Bank Polski, będzie zależało od wielu czynników takich, jak np.: jakość danego modelu, koszty utrzymania modelu czy ryzyko halucynacji.

W jaki sposób zapewniacie bezpieczeństwo i prywatność danych, które są przetwarzane przy pomocy sztucznej inteligencji?

Mamy oczywiście wypracowane standardy i procedury bezpieczeństwa, które gwarantują zabezpieczenie danych wewnętrznych przed niespodziewanymi ryzykami. Działamy w bardzo rygorystycznym środowisku. Nadzoruje nas Komisja Nadzoru Finansowego i każda nasza decyzja jest ściśle monitorowana.

W przyszłości będziecie wykorzystywać GenAI. W jaki sposób można zatem zminimalizować ryzyko powstawania błędów czy nadużyć związanych z tą technologią?

Jeżeli zdecydujemy się na tego typu rozwiązania, to na pewno będą one wdrażane stopniowo. Ich implementację poprzedzi szczegółowa analiza i kontrola. Dopiero po zebranych doświadczeniach będziemy mogli wychodzić do klientów z konkretnymi rozwiązaniami, chociażby w postaci botów hybrydowych, które upraszczają wiele procesów.

Trzeba natomiast wziąć pod uwagę, że ogólnodostępne modele dla biznesu – takie, jak Gemini czy ChatGPT – nie były uczone na danych bankowych. Nie mają więc wiedzy na ten temat. Istnieje duże prawdopodobieństwo, że taki model zapytany o wewnętrzną informację banku zacznie halucynować. Jednym z rozwiązań, które pozwalają radzić sobie z problemem halucynacji są wspomniane systemy RAG, które integrują wiele rozwiązań, w tym właśnie modele generatywne.

Modele które zostaną wytrenowane, poddawane są szeregom testów zanim trafią na środowisko produkcyjne. Stosujemy szereg miar statystycznych do oceny skuteczności wytrenowanych modeli. Ich dobór zależy od problemu jakim się zajmujemy. Przykładowo dla problemu klasyfikacji popularną miarą jest F1-score.

W jaki sposób monitorujecie działanie rozwiązań AI po wdrożeniu?

Mamy szereg zabezpieczeń. Każde z rozwiązań produkcyjnych jest monitorowane. Logi z nich spływają do bazy i są poddawane analizie pod kątem potencjalnych, nowych obszarów do zagospodarowania, ale również błędów, które mogły się pojawić.

Wykorzystujemy też raporty zbudowane przy pomocy narzędzi BI, które pozwalają kontrolować czy dany model nie degraduje się w czasie, bo np. klienci przestali mówić w dany sposób, albo mówią coś czego model nie rozpoznaje.

Czyli rozwiązania te trzeba co jakiś czas aktualizować…

Zdecydowanie tak. Wyobraźmy sobie, że mamy wytrenowany model rozpoznawania intencji klienta na infolinii w 80 tematach. W pewnym momencie pojawia się nietypowa sytuacja np. Covid-19, co powoduje potrzebę biznesową stworzenia nowego procesu na infolinii informującego o tarczy antycovidowej. Wówczas taki model należy dotrenować. aby potrafił rozpoznać, że klient dzwoń w sprawie nowego tematu.

Ile średnio trwa fine-tuning takich modeli?

Wszystko zależy od tego ile mamy danych. Jeżeli nie jest ich za wiele, to trenowanie może trwać nawet kilkanaście minut ale jakość modelu będzie wątpliwa. Jeżeli danych będzie bardzo dużo, proces ten znacznie się wydłuży ale możemy oczekiwać dużo lepszej jakości modelu. Dużo zależy też od dostępnych zasobów obliczeniowych do przeprowadzenia fine-tuningu.

Masz na myśli obciążenia procesorów?

Między innymi. W przypadku dużych modeli językowych takich, jak GPT 4 kluczowe są procesory graficzne. W przypadku lżejszych modeli wystarczą pamięć RAM i procesory CPU.

Jak liczyć koszty takich projektów?

Nie jest to trudne. Jeżeli wiemy, jakiego wolumenu danych możemy się spodziewać i jakich zasobów infrastrukturalnych potrzebujemy, to jesteśmy w stanie łatwo je policzyć.

Bardziej skomplikowaną sprawą jest określenie potencjalnych korzyści. Niektóre projekty są policzalne, a inne – chociażby dotyczące GenAI – ciężkie albo wręcz niemożliwe do zmierzenia.

Jak kształcicie i rozwijacie kompetencje związane z AI wśród pracowników?

Przede wszystkim organizujemy wewnętrzne wydarzenia na temat zrealizowanych projektów. Dzielimy się z pracownikami wiedzą na temat tego, w jaki sposób rozwiązaliśmy dany problem i jakie są z tego korzyści.

Dodatkowo, część pracowników uczestniczy w – finansowanych przez bank – studiach podyplomowych z zakresu sztucznej inteligencji. Oferujemy też zewnętrzne platformy e-learningowe, typu DataCamp, na których można douczyć się w zakresie AI.

Mamy też własne, wewnętrzne szkolenia specjalistyczne.

Kiedy sztuczna inteligencja będzie tak samo skuteczna jak człowiek?

W niektórych rozwiązaniach, tych dotyczących wykonywania konkretnych zadań, AI już przegoniła człowieka. Przykładowo w Chinach wprowadzono system Social Scoringu, który jest w stanie zidentyfikować każdego Chińczyka. Człowiek nie dałby sobie z tym rady. Inny przykład to algorytm AlphaGo, który nauczył się grać w Go i pokonał arcymistrza tej gry.

Pierwszym krokiem, od którego powinniśmy zacząć to sprawdzenie czy klasyczne rozwiązania nie są skuteczne w danym problemie. Pamiętajmy, że modele na Hugging Face to ciężkie modele, które często wymagają kart graficznych do efektywnego działania.

Modele generatywne wprowadzają z kolei nowy poziom przetwarzania. Bazują głównie na tekście, obrazie, audio i wideo. Sora wprowadzona niedawno przez OpenAI zrobiła na mnie ogromne wrażenie. Rozwiązania GenAI są zatem bardzo dobre w generowaniu kontentu, ale czy tak samo skuteczne jak człowiek? Wciąż nie mamy dobrych miar statystycznych, które byłyby w stanie to stwierdzić.

Patrząc na ten temat szerzej, modele AI koncentrują się na konkretnej czynności. Natomiast my, ludzie jesteśmy bardziej multidyscyplinarni. Nie potrzebujemy aż tak dużej ilości danych, aby się czegoś nauczyć. Lepiej łączymy fakty. Bazujemy na własnych doświadczeniach. Obecnie więc AI jeszcze nas nie przewyższa.

Co będzie dalej? Pewnie kolejny krok to ogólna sztuczna inteligencja – Artificial General Intelligence. Na razie nie ma też żadnych opracowań na temat takiej, która ma dorównywać człowiekowi, a nawet go przewyższać. Czas pokaże, ale patrząc na tempo rozwoju tego obszaru, wzrost mocy obliczeniowych, wykorzystanie komputerów kwantowych w obszarze AI sprawi, że być może dowiemy się o tym w kolejnych dekadach.

Tagi

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *