CDOStrefa PKO BPPolecane tematy

PKO BP: budujemy zaufanie do AI w banku i w społeczeństwie

ARTIFICIAL INTELLIGENCE

Z Dawidem Kinem, dyrektorem Biura Rozwoju Sztucznej Inteligencji w PKO Banku Polskim rozmawiamy o zastosowaniu algorytmów AI/ML; przetwarzaniu języka naturalnego; tworzeniu i trenowaniu modeli uczenia maszynowego; 17, stosowanych już w banku botach; ChatGPT; trudnościach napotykanych w projektach z obszaru AI; a także nowych, unijnych regulacjach związanych z zastosowaniem algorytmów AI.

PKO BP: budujemy zaufanie do AI w banku i w społeczeństwie

W jakiego typu projektach PKO Bank Polski wykorzystuje algorytmy sztucznej inteligencji? Pytam, bo o AI mówi się zarówno w kontekście chatbotów, jak i algorytmów Machine Learning do analizy zachowań i preferencji klientów…

Zastosowań AI jest faktycznie bardzo dużo. Najpopularniejsze są voiceboty i chatboty, bo mają bezpośredni kontakt z klientami. Mamy już 17 tego typu rozwiązań, które przeprowadziły ponad 21 mln rozmów!

Wiele osób zastanawia się jak rozumieją nas boty. W większości przypadków stoi za tym zdefiniowana strategia dialogowa, czyli logika wspierana przez modele uczenia maszynowego. Stosujemy kilka typów modeli.

Pierwszy z nich – Intent Recognition – rozpoznaje intencję, temat rozmowy. Klient mówi „zrób przelew na 5 dyszek do Janka”, a model rozpoznaje to, jako przelew do odbiorcy zdefiniowanego. Ten typ modelu jest wykorzystywany prawie zawsze. Pozostałe tylko w wybranych procesach.

Kolejny model – Named Entity Recognition – rozpoznaje konkretne elementy wypowiedzi. We wspomnianym wcześniej poleceniu klienta wykryje kwotę – „5 dyszek” i odbiorcę – „Janka”. Bot szuka w ten sposób wszystkich danych, które są potrzebne do wykonania danej operacji.

Trzeciego typu modelu – Fuzzy Matching – używamy do porównywania danych. Klient chce zrobić przelew do „Janka”, ale na swojej liście ma prawdopodobnie odbiorcę, który został zapisany jako Janek, Jan lub Jan Kowalski wraz z innymi odbiorcami, więc zadaniem modelu jest wskazanie, o kogo chodzi klientowi.

To jedyne zastosowania AI w PKO BP?

Absolutnie nie! Algorytmy AI stosowane są w PKO Banku Polskim bardzo szeroko. Mamy wiele różnych klasyfikatorów tekstu. Jeden z nich analizuje wszystkie dokumenty przesłane do banku przez klientów w formie papierowej. Wszystkie pisma trafiają do właściwego zespołu, który je skanuje. Jeszcze do niedawna kolejnym krokiem procesu było ręczne przypisanie pisma do właściwego zespołu na podstawie jego typu.

Teraz, po zeskanowaniu, identyfikator pisma jest przesyłany do specjalnej aplikacji, która pobiera skan, przetwarza go na tekst, a następnie model AI – na podstawie treści – dokonuje jego automatycznej klasyfikacji. Nauczyliśmy rozpoznawać kilkadziesiąt typów dokumentów. Model próbuje również wykryć konkretne elementy pisma – trochę tak, jak we wcześniejszym przykładzie kwoty i odbiorcy w przelewie. Pozwala to na dalszą automatyzację procesu. Wszystkie dane są następnie przekazywane do innego systemu, który może przypisać zadanie do zespołu specjalizującego się w konkretnej sprawie.

Nie tylko automatyzujemy powtarzalne czynności, ale poprzez automatyczną klasyfikację możemy również skrócić czas obsługi i sprawić, że więcej spraw trafi od razu do właściwej osoby, bo model jest bardzo powtarzalny. Brak konieczności przekazywania spraw pomiędzy zespołami i skrócenie czasu obsługi wpływają na satysfakcję klienta, a wskaźnik NPS to jedna z najważniejszych miar zapisanych w strategii naszego banku.

W tym roku uruchomimy projekt AI@Scale, który ma usystematyzować nasze podejścia do AI i umożliwić jeszcze szybszy rozwój. Chcemy dostarczyć nowe rozwiązania, które zwiększą produktywność wielu pracowników oraz ich udział w rozwoju modeli uczenia maszynowego.

Podobny proces klasyfikuje maile i wiadomości wysłane przez serwis iPKO i naszą stronę. Ten model będziemy intensywnie rozwijać. Na razie skupiamy się na wykrywaniu dwóch, niestandardowych typów wiadomości. Po pierwsze – spraw pilnych, które wymagają wysokiego priorytetu, np. incydentów bezpieczeństwa. Po drugie – takich, które nie wymagają naszej uwagi, czyli np. maili z podziękowaniami za załatwienie sprawy lub odpowiedzi automatycznych. Oczywiście kategorii jest więcej, ale ten podział sprawił, że sprawy pilne obsługujemy jako pierwsze, a czas zaoszczędzony na mailach niewymagających żadnej akcji, możemy poświęcić na poprawę efektywności obsługi pozostałych wiadomości.

Używamy też klasyfikatorów odpowiedzi na pytania otwarte w badaniach NPS, np. w badaniu satysfakcji z pracy. Jest w nim pytanie otwarte, w którym pracownicy mogą napisać co im się podoba, a co wymaga uwagi. Takich opinii jest kilka lub nawet kilkanaście tysięcy. Wcześniej człowiek musiał przypisać każdą z nich do 1 lub więcej – spośród 60 – kategorii. Teraz mamy algorytm, który robi to automatycznie w ciągu kilku minut. Pozwala nam to na szybszą prezentację danych, odpowiednią reakcję oraz zapewnienie powtarzalności oceny.

Wspomniałeś o przetwarzaniu języka naturalnego w wyszukiwaniu treści w ankietach pracowników. Czy to jedyne zastosowanie tego typu rozwiązań?

Nie! Możemy rozmawiać o kolejnych rozwiązaniach jeszcze przez kilka godzin (śmiech). Kolejnym przykładem są wyszukiwarki semantyczne. Weźmy na przykład drugą linię wsparcia oddziałów – klient zadaje doradcy bardzo skomplikowane pytanie, na które ten nie jest w stanie odpowiedzieć, bo wymaga to dodatkowej analizy. Nasi pracownicy używają takich wyszukiwarek, aby zyskać dostęp do wiedzy swoich koleżanek i kolegów. Nie muszą przeszukiwać procedur w poszukiwaniu słów kluczowych, a zamiast tego wpisują w odpowiednim narzędziu pytanie, np. „czy klient może ubezpieczyć kosiarkę?”. Baza zgłoszeń i baza wiedzy są wtedy przeszukiwane w inteligentny sposób, a pracownik dowiaduje się, że jego koleżanka odpowiadała na takie pytanie miesiąc temu i może skorzystać z tej wiedzy.

Zapewniamy szybszy dostęp do wiedzy bez względu na staż pracownika i jego dotychczasowe doświadczenie. Co ważniejsze, zwiększamy szansę na znalezienie informacji, bo można zadawać pytania językiem naturalnym. Mamy ambitne plany związane z tymi rozwiązaniami i chcemy stosować wyszukiwarki semantyczne w kolejnych obszarach.

Posiadamy też rozwiązanie, które pomaga nam zapewnić zgodność z przepisami – tzw. detektor danych wrażliwych. Chcemy przetwarzać tylko te dane, które możemy, dlatego jeden z modeli ocenia wszystkie notatki doradców dotyczące naszych klientów i szuka informacji, które nie powinny się tam znaleźć. Nie zawsze szczere wyznanie klienta powinno znaleźć się w notatce ze spotkania, szczególnie, gdy dotyczy to wrażliwych danych osobowych, np. zdrowotnych. Po wykryciu nieprawidłowości, odpowiednia osoba jest proszona o weryfikację notatki, a informacja jest usuwana z naszego systemu. W ten sposób zapewniamy zgodność z przepisami o ochronie danych osobowych.

Kolejnym rozwiązaniem jest detektor anomalii w systemach IT. Specjalnie wytrenowany model, nauczył się analizować różne metryki i rozpoznawać awarie. Wyobraźmy sobie, że jesteśmy administratorami systemów, którzy mają dostęp do setek metryk dotyczących czasów odpowiedzi usług, liczby zapytań itp. i muszą je śledzić.

Oczywiście nadal możemy skonfigurować standardowy monitoring, ale analiza tak dużej ilości danych będzie problematyczna. Model wspiera człowieka i został wytrenowany w taki sposób, aby przewidywać potencjalne awarie na bardzo wczesnym etapie. To kolejny przykład współpracy technologii i człowieka, która zwiększa jego produktywność.

Czy w rozwiązaniach z zakresu cyberbezpieczeństwa też korzystacie ze wsparcia AI?

Mamy bardzo dobre rozwiązania i świetnych ekspertów, którzy niedawno po raz kolejny zajęli bardzo wysokie miejsce w prestiżowych ćwiczeniach z obszaru cyberbezpieczeństwa – NATO Locked Shields, ale chcemy jeszcze bardziej wykorzystywać AI w tym obszarze. Możemy m.in. przetwarzać i analizować duże zbiory logów oraz poszukiwać dodatkowych wskazówek w komunikacji z klientami w celu wsparcia człowieka. Potencjał jest bardzo duży, więc rozmawiamy o różnych zastosowaniach AI. Staramy się wspólnie weryfikować pomysły.

Zaawansowane zespoły AI wolą bazować na rozwiązaniach open source i samodzielnie szukać pomysłów i modeli, które można dotrenować, aby realizowały konkretne zadania . W moim zespole działamy w taki sposób.

Czy to są algorytmy, które wy sami wytworzyliście, czy korzystaliście z „gotowców”?

To zależy. Czasami bank kupuje gotowe, komercyjne rozwiązania. W szczególności, gdy dostawcy oferują nam bardzo interesujące, złożone i specjalistyczne oprogramowanie, które pozwala na szybkie osiągnięcie istotnego celu biznesowego. Niektóre z rozwiązań są również dostępne w chmurze.

Z mojego doświadczenia wynika jednak, że zaawansowane zespoły AI, takie jak nasze Biuro Rozwoju Sztucznej Inteligencji, wolą bazować na rozwiązaniach open source i samodzielnie szukać pomysłów i modeli, które można dotrenować, aby realizowały konkretne zadania z wysoką skutecznością. W moim zespole działamy w taki sposób. Kluczem do sukcesu są ludzie, którzy znają się na sztucznej inteligencji i potrafią stworzyć oraz wykorzystać zaawansowane modele realizujące konkretne zadania. Tacy ludzie są idealnymi partnerami dla naszych, wewnętrznych klientów biznesowych, którzy zmagają się z różnymi wyzwaniami.

Mógłbyś podać przykłady rozwiązań open source?

Jest tego bardzo dużo, ale jako przykład mogę podać model fastText, który został wymyślony przez inżynierów Facebook’a. Jest na licencji otwartej, czyli każdy może z niego skorzystać, więc dostosowaliśmy go do naszych potrzeb i wykorzystujemy m.in. do rozpoznawania tematu rozmowy w naszych botach. Pozwoliło nam to na znaczne skrócenie czasu ponownego trenowania modelu z wielu godzin do kilkunastu minut, przy zachowaniu tej samej jakości i poziomu prawidłowego rozpoznawania tematów, o które pytają klienci.

Innym przykładem są silniki OCR – Optical Character Recognition, czyli rozwiązania, które pozwalają przetworzyć obraz dokumentu na tekst. Mamy w banku komercyjne rozwiązanie, ale niektóre procesy wymagają niestandardowego podejścia, dlatego zbudowaliśmy część z nich w oparciu o ogólnodostępne silniki Tesseract i TrOCR.

Pracujemy też nad rozwiązaniem, które pomoże pracownikom pisać maile i inne wiadomości prostym językiem. Oprócz oceny tekstu, podpowie jak go napisać, aby był bardziej zrozumiały dla klienta. Niektóre z funkcji tego narzędzia działają w oparciu o ogólnodostępny model RoBERTa.

Sztuczna inteligencja na pewno nie rozwijałaby się tak szybko, gdyby nie ogromna, międzynarodowa społeczność, która stara się udostępniać wyniki eksperymentów i badań. Pozwala to innym ekspertom budować kolejne rozwiązania bez wymyślania koła na nowo.

Wrócę do początku naszej rozmowy. Czemu stosujecie aż 17 botów zamiast jednego?

Dlatego, że obsługują one zupełnie inne sprawy. Mamy np.: asystenta głosowego w aplikacji IKO, bota na infolinii banku, bota przypominającego o zaległościach, czy boty „bezpieczeństwa”, które potwierdzają z klientem wykonanie transakcji. To zupełnie inne rozwiązania.

Trwa cyfrowy wyścig zbrojeń i jesteśmy w momencie, w którym podejmowane będą decyzje o przyszłości świata cyfrowego. Już rozpoczęła się rewolucja w wyszukiwaniu informacji w internecie, która będzie postępować.

Teraz wyobraźmy sobie, że mamy jednego bota i próbujemy wdrożyć zmianę w którymkolwiek z tych scenariuszy. Efektem mogą być problemy w innej funkcji, co oznacza, że powinniśmy przetestować wszystkie z nich.

Dodatkowo posiadają one dedykowane modele do rozpoznawania tematów lub prostsze formy wykrywania o co chodzi klientowi. Mając 17 botów, mamy gwarancję, że nie dojdzie do takiej sytuacji. Możemy to również robić w ciągu dnia – nadal bezkolizyjnie, więc takie podejście daje nam dużą elastyczność.

To zapewne jeszcze nie cała gama rozwiązań wspartych sztuczną inteligencją w PKO BP.

Zdecydowanie nie. Zbudowaliśmy też narzędzia, które analizują opinie klientów o aplikacji IKO w sklepach z aplikacjami. Dzięki temu nasi pracownicy nie muszą ich wszystkich czytać. Regularnie pobieramy opinie, a modele klasyfikacyjne dzielą je na kilka kategorii i wyłapują tematy najczęściej poruszane przez klientów.

Dzięki temu jesteśmy w stanie regularnie i automatycznie tworzyć raport porównujący nas z innymi aplikacjami bankowymi. Widzimy w których kategoriach idzie nam lepiej, w których mamy coś do poprawy, o jakie funkcje pytają klienci i które z nich chwalą. Odbiorcy raportu dostają syntetyczny materiał do dalszej analizy. Wiedzą które funkcje warto wdrożyć w aplikacji IKO, a które delikatnie zmodyfikować. Jednym z pierwszych wyników raportu było wykrycie często pojawiających się pytań o ciemny motyw aplikacji i płatności Google Pay. Te funkcje po jakimś czasie znalazły się w naszej aplikacji.

W podobny sposób analizujemy oceny i opinie dotyczące naszych oddziałów pojawiające się w Google Maps. Dyrektor każdego z nich lub dowolny analityk, ma dostęp do syntetycznego raportu. Klasyfikujemy wszystkie opinie w podziale na kilka kategorii. To daje nam możliwość wyciągania wniosków i porównywania oddziałów działających w podobnych miejscach, aby lepiej zrozumieć w jakim kierunku powinniśmy się rozwijać.

Te algorytmy AI automatyzują etap analizy i umożliwiają pracownikom wyciąganie wniosków w tych obszarach, w których często wymagałoby to pracochłonnego przeglądania każdej opinii, jedna po drugiej. To kolejny dowód, że ta technologia realnie wspiera pracowników, a wszystko dzięki klientom, którzy dzielą się z nami swoimi opiniami.

Mając tyle rozwiązań, „spoczęliście już na laurach”, czy pojawiają się kolejne projekty?

Cały czas mamy apetyt na więcej i pracujemy nad nowymi inicjatywami. W tym roku wdrożymy wspomniane wcześniej narzędzie do tzw. prostej komunikacji. Tworzymy je siłami wewnętrznymi banku i właśnie je doskonalimy. Docelowo pracownik będzie mógł sprawdzić dowolny tekst, np. maile, prezentacje, dokumenty wysyłane do klienta. Dążymy do uproszczenia komunikacji z klientem, aby nasza oferta i sposób w jaki się komunikujemy, były proste i zrozumiałe.

To dla nas ważny projekt i pewna forma rewolucji w komunikacji. Umiejętność pisania prostych i przejrzystych tekstów nie będzie już zarezerwowana tylko dla osób, które zajmują się tzw. UX Writingiem. Chcemy, aby tę wiedzę posiadały też osoby, które redagują materiały skierowane nie tylko do klientów, ale też pracowników.

Dzięki algorytmom AI nie tylko automatyzujemy powtarzalne czynności, ale – poprzez automatyczną klasyfikację – możemy skrócić czas obsługi i sprawić, że więcej spraw trafi od razu do właściwej osoby.

Przyglądamy się też dużym modelom językowym i ogólnie generatywnej sztucznej inteligencji, ponieważ widzimy jak duży jest ich wpływ na rynek i postrzeganie technologii przez społeczeństwo.

Co myślicie w tym kontekście o ChatGPT? On nie tylko pisze treści, ale i kod źródłowy, a nawet zdaje celująco egzaminy na Wydziały Medyczne…

To fantastyczne rozwiązanie, które zmienia świat. Modele językowe z rodziny tzw. transformerów dają duże możliwości. Środowisko AI wie, że to kolejna wersja modelu, który był na rynku od lat, więc nie jesteśmy zaskoczeni. Trzeba jednak przyznać, że najnowsze podejście, sposób udostępnienia rozwiązania i jego skuteczność, to zdecydowanie rewolucja.

Trwa cyfrowy wyścig zbrojeń i jesteśmy w momencie, w którym podejmowane będą decyzje o przyszłości świata cyfrowego. Już rozpoczęła się rewolucja w wyszukiwaniu informacji w internecie, która będzie postępować. Teraz przeglądając sieć otrzymujemy listę linków do stron, na których możemy znaleźć odpowiedzi na nasze pytanie. W przyszłości będziemy mogli dostać od razu gotową odpowiedź lub zastosować podejście hybrydowe.

Przyglądamy się tej technologii i budujemy całą strategię wykorzystania generatywnej sztucznej inteligencji. Nie chciałbym jeszcze łączyć ChatGPT z naszymi botami, bo na tym etapie nie ma wystarczającej kontroli nad jego odpowiedziami. Na świecie jest sporo pasjonatów, którzy szukają coraz nowszych sposobów na obejście jego filtrów, aby powiedział coś, co normalnie powinno być filtrowane.

Dopóki nie powstaną skuteczne algorytmy weryfikujące treści, będziemy musieli z większym sceptycyzmem podchodzić do tego, co widzimy i czytamy. Te modele są podatne na tzw. halucynacje, czyli zdarza się, że odpowiedzi brzmią ładnie i wyglądają na prawdziwe, ale informacje w nich zawarte są nieprawdziwe.

Na pewno jednak szerokie wykorzystanie tego typu modeli językowych to rewolucja. Trwa szeroka debata publiczna na ten temat, a dziennikarze, pracownicy PR, artyści i bardzo wiele innych osób zastanawia się, jaka będzie ich przyszłość, skoro algorytm AI może napisać wiersz, tekst piosenki lub artykuł. Ta rewolucja będzie dotyczyć nawet programistów, którzy zyskają potężne wsparcie w pracy, bo tego typu modele już teraz potrafią napisać kod w określonym języku programowania.

Myślę, że czeka nas naprawdę wielka zmiana i kolejne miesiące pokażą, w jakim kierunku będą się rozwijać tego typu rozwiązania. Widzimy, że przełom następuje, gdy potężne narzędzie jest uruchamiane w formie dostępnej dla wszystkich i stąd właśnie wziął się sukces ChatGPT. Tak samo było kilka miesięcy temu z algorytmem Midjourney. Jest on w stanie namalować obraz/wygenerować grafikę na podstawie krótkiego opisu, np. zielone krzesło w kształcie awokado. Wystarczy ją pobrać, wydrukować i mamy w domu obraz naszych marzeń. Ważna jest też dyskusja o przyszłości praw autorskich, RODO itp.

Czy zbudowaliście też własną infrastrukturę na potrzeby trenowania algorytmów?

To zależy od konkretnego zespołu, jego potrzeb i realizowanych projektów. Niektóre zbudowały procesy on-premise, czyli w infrastrukturze banku, a inne w chmurze, np. w ramach projektu MLOps. Bez względu na podejście, staramy się standaryzować i automatyzować proces powstawania kolejnych modeli.

Modele językowe z rodziny tzw. transformerów – takie jak ChatGTP – dają duże możliwości. Przyglądamy się tej technologii i budujemy całą strategię wykorzystania Generative AI.

W tym roku uruchomimy projekt AI@Scale, który ma usystematyzować nasze podejścia do AI i umożliwić jeszcze szybszy rozwój. Chcemy dostarczyć nowe rozwiązania, które zwiększą produktywność wielu pracowników oraz ich udział w rozwoju modeli uczenia maszynowego. Będziemy standaryzować, dostarczać narzędzia i uczyć, aby każdy wiedział, jak sztuczna inteligencja może pomóc mu w pracy.

Zwiększenie świadomości użytkowników, to zwiększenie ich potrzeb, więc na pewno będziemy dążyć do tego, aby nasza infrastruktura pozwalała na szybkie dostarczanie kolejnych rozwiązań. Cały czas rozmawiamy o docelowym podejściu oraz jego alternatywach.

Macie już pierwsze wnioski?

Tak, ale musimy przejść przez wszystkie rozwiązania z obszaru AI po kolei. Na pewno bank nadal będzie rozwijać platformę MLOps, aby oferowała jak największe możliwości i była alternatywą dla rozwiązań on-premise.

Część rozwiązań pozostawimy w standardowej infrastrukturze, bo czasami można uruchomić narzędzie taniej i szybciej, np. jeśli nie wymaga potężnej mocy obliczeniowej, nie jest krytyczne, ani udostępniane bezpośrednio klientom. Chcemy wypracować różne ścieżki i zrobić z tego standard.

Jest jakiś konkretny język, z którego korzystacie tworząc algorytmy?

Głównie Python z wykorzystaniem różnych bibliotek. Czasami model wchodzi w skład większej aplikacji, ale wtedy wybór języka tej „otoczki” zależy od jej przeznaczenia.

Co jest najtrudniejsze w projektach budowy modeli wspartych AI?

Jeszcze kilka lat temu najtrudniejsze było zarządzanie oczekiwaniami. Ludzie nie wiedzieli co można osiągnąć dzięki algorytmom AI/ML i jak działają. Każdy oczekiwał, że AI będzie „lekiem na całe zło”, samo się nauczy, samo coś zrobi. Teraz coraz więcej ludzi wie, że AI wspiera działania człowieka, ale potrzebuje jego wiedzy i obsługi.

Dziś sporym ograniczeniem jest jakość i ilość danych. Drugi problem to brak specjalistów, a odpowiedni fachowcy są najważniejsi. Dobry specjalista ML jest w stanie tak pokierować projektem, aby wyciągnąć maksimum z tego, czym dysponujemy. Nawet jeżeli na pewnym etapie natrafimy na jakieś trudności.

Jakie mogą to być trudności?

Pierwsza to nieprawidłowo otagowane dane do uczenia modelu ML, czyli ich błędna klasyfikacja. W takiej sytuacji okazuje się, że model nie działa tak jak powinien, ale jest to spowodowane faktem, że takie dane dostał od człowieka. W niektórych przypadkach, dane mogą też przełożyć się na tzw. stronniczość modelu, np. grupa osób przygotowujących wykazywała się niską empatią, a oczekiwaniem będzie stworzenie modelu, który wykryje konkretne emocje. Takie rzeczy rozwiązuje się poprzez zwiększenie różnorodności danych lub grupy osób przygotowującej te dane.

Przykładem zastosowania AI w PKO BP są wyszukiwarki semantyczne. Nasi pracownicy używają ich do tego, aby zyskać dostęp do wiedzy swoich koleżanek i kolegów.

Druga trudność to zbyt mało danych i konieczności ich tworzenia. Łatwo możemy zbudować model do klasyfikacji dokumentów, bo mamy ich bardzo dużo i dokładnie wiemy jakie to dokumenty, ale czasami zdarzają się projekty, w których dane trzeba stworzyć od zera. Tak było podczas tworzenia Asystenta głosowego w IKO. Jak nauczyć model rozpoznawania prośby o przelew, jeżeli nie wiemy w jaki sposób proszą o to klienci? Zaczęliśmy wymyślać różne warianty realizacji przelewu. Stały się pierwszymi danymi treningowymi modelu, które następnie zaczęliśmy mnożyć na różne sposoby.

Oczywiście trudności jest więcej, ale te związane z danymi, są najczęstszą przyczyną porażek. Największe modele językowe na świecie powoli wysycają dane wysokiej jakości, więc będą zasilane mniej profesjonalnymi danymi – blogami itp.

Czy unijne regulacje, np. AI Act, ograniczą możliwość wykorzystania algorytmów AI/ML?

Tak naprawdę one tylko wskazują granice. Uważam, że ich powstanie to krok w dobrym kierunku. Choć – zupełnie szczerze – regulacje te nie są potrzebne przedsiębiorcom. To nie jest tak, że firmy, które dostarczają rozwiązania klasy AI/ML na nie czekają. Są one przede wszystkim potrzebne społeczeństwu, aby budować zaufanie do technologii. AI Act definiuje konkretne poziomy ryzyka, w tym wysokiego i tzw. zakazane AI. Nie czeka nas więc przyszłość znana z Chin i system punktów społecznych. Takie praktyki będą zakazane w Unii Europejskiej.

Ktoś może powiedzieć, że przez takie regulacje nie będziemy rozwijać się w tym obszarze tak szybko, jak Chiny…

Moim zdaniem te przepisy nie wpłyną w znaczący sposób na technologiczny wyścig, a powinny być pozytywnie odebrane przez społeczeństwo. Technologia rozwija się tak szybko, że i tak nie da się jej łatwo ograniczyć przepisami, bo ciągle pojawiają się nowe rozwiązania. AI Act zostawia furtkę dla uzasadnionych przypadków, np. bezpieczeństwo obywateli.

Na pewno nie będziemy dodatkowo „karani” za przejście na czerwonym świetle, np. poprzez obniżenie ratingu społecznego i brak możliwości jazdy pociągiem. To może się wydawać dziwne, ale właśnie taki system funkcjonuje w Chinach – wszyscy obywatele są śledzeni i na bieżąco rozpoznawani przez kamery. Kiedy robią coś co jest zabronione, dostają punkty ujemne, co ostatecznie może się przełożyć na pewne ograniczenia.

Oprócz zakazanych rozwiązań, będziemy mieć systemy wysokiego ryzyka, wymagające lepszej dokumentacji, uzasadnienia i kontroli. Celem jest poprawa bezpieczeństwa i jakości tych rozwiązań. Będziemy wyróżniać też systemy średniego ryzyka, czyli np. boty. Ostatni poziom to AI o niskim ryzyku, np. rozwiązania wykorzystywane w grach komputerowych do interakcji z użytkownikiem.

Bardzo cieszę się, że te regulacje powstają. Choć zapewne minie sporo czasu zanim wejdą w życie. W PKO Banku Polskim już się do tego przygotowujemy, abyśmy z wyprzedzeniem byli zgodni z nowymi przepisami. Ta technologia jest dla nas bardzo ważna – transformuje nasze życie i pracę.

Tagi

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *