BiznesSztuczna inteligencja
83% specjalistów ds. zwalczania nadużyć finansowych zamierza wdrożyć Generative AI do 2025 roku
Tak wynika z najnowszej analizy Association of Certified Fraud Examiners (ACFE) oraz SAS. Jednocześnie, przeprowadzone wcześniej badania porównawcze sugerują, że wykorzystanie zaawansowanych technologii do prewencji nadużyć pozostaje w tyle za oczekiwaniami.
ACFE i SAS przedstawiły trzecią odsłonę globalnego badania 2024 Anti-Fraud Technology Benchmarking Report, które ukazuje kluczowe trendy w ewolucji metod zwalczania oszustw finansowych od 2019 roku. Najnowsza edycja odzwierciedla spostrzeżenia prawie 1200 członków ACFE ankietowanych pod koniec 2023 roku.
Najważniejsze wnioski z badania:
- Zainteresowanie sztuczną inteligencją (AI) i uczeniem maszynowym (ML) jest większe niż kiedykolwiek wcześniej. Prawie 1 na 5 specjalistów ds. przeciwdziałania nadużyciom (18%) deklaruje wykorzystanie tej technologii. Kolejne 32% przewiduje wdrożenia AI/ML w ciągu najbliższych dwóch lat. To najwyższy wynik od początku badania. Jeśli tempo to zostanie zachowane, wykorzystanie AI/ML w programach zwalczania nadużyć finansowych wzrośnie niemal trzykrotnie do końca przyszłego roku.
- Jednak realne wykorzystanie technologii AI i ML pozostaje w tyle za oczekiwaniami. Mimo dużego zainteresowania, wdrożenie tych technologii do wykrywania oszustw i zapobiegania im wzrosło tylko o 5% od 2019 roku. Liczba ta znacznie odbiega od przewidywanych wskaźników ujawnionych w badaniach z 2019 i 2022 roku (odpowiednio 25 i 26%).
- Podczas gdy wykorzystanie wielu technik analitycznych utrzymuje się na stałym poziomie, zastosowanie biometrii i robotyki w programach zwalczania nadużyć finansowych stale rośnie. Wykorzystanie biometrii fizycznej wzrosło o 14% od 2019 roku i jest obecnie wskazywane przez 40% respondentów. 20% uczestników badania zgłosiło stosowanie robotyki, w tym zrobotyzowanej automatyzacji procesów, podczas gdy w 2019 roku odsetek ten wynosił 9%. Wykorzystanie tych technologii jest szczególnie wysokie w bankowości i usługach finansowych, gdzie połowa ankietowanych (51%) korzysta z fizycznych danych biometrycznych, a jedna trzecia (33%) z robotyki.
„Narzędzia generatywnej sztucznej inteligencji mogą być niezwykle niebezpieczne, jeśli wpadną w nieodpowiednie ręce. Trzy na pięć organizacji przewiduje zwiększenie swoich budżetów na technologie zwalczania nadużyć finansowych w ciągu najbliższych dwóch lat. Sposób, w jaki zainwestują te fundusze, może dać im przewagę w technologicznym wyścigu zbrojeń z cyberprzestępcami” – powiedział prezes ACFE John Gill.
Ogromne zainteresowanie zaawansowanymi technikami analitycznymi w zestawieniu ze znacznie skromniejszymi wskaźnikami ich adopcji dowodzi złożoności skalowania cyklu życia sztucznej inteligencji i analityki, uważają eksperci.
“Sztuczna inteligencja i uczenie maszynowe nie są prostymi aplikacjami typu plug-and-play. Jednak korzyści z nich płynące można łatwiej zrealizować, wdrażając kompleksowe rozwiązania w całej strukturze zarządzania ryzykiem na jednej platformie opartej na sztucznej inteligencji” – stwierdzi Stu Bradley, starszy wiceprezes ds. ryzyka, oszustw i rozwiązań zgodności w SAS.
Czy wykorzystanie generatywnej sztucznej inteligencji do zwalczania nadużyć finansowych gwałtownie wzrośnie zgodnie z entuzjazmem respondentów ankiety? A może rzeczywiste wyzwania, takie jak ograniczenia budżetowe, jakość danych i luki kompetencyjne, zahamują przewidywany wzrost? Czas pokaże. Wiadome jest, że ostrożności nigdy za wiele. Odpowiedzialne innowacje wymagają bowiem od organizacji zadawania pytań nie tylko „czy moglibyśmy”, ale także „czy powinniśmy?” – podkreślają autorzy wspomnianej analizy.
„Wykorzystanie generatywnej sztucznej inteligencji w inicjatywach zwalczania nadużyć finansowych może odegrać znaczącą rolę w identyfikowaniu anomalii, trendów i wskazań w większych ilościach danych przy minimalnym zaangażowaniu zasobów. Jednak organizacja będzie musiała zapewnić odpowiednie wytyczne, aby zminimalizować błędy i stronniczość” – wskazał jeden z respondentów badania.