Sztuczna inteligencjaBiznesPolecane tematy
Jak sektor finansowy wykorzystuje AI?
Choć instytucje finansowe coraz częściej wdrażają rozwiązania oparte na sztucznej inteligencji, tylko 15% z nich posiada spójną strategię AI, uwzględniającą wykorzystanie open source. Na przeszkodzie stoją m.in. rygorystyczne regulacje, wątpliwości etyczne oraz niedobór kompetencji. Mimo to branża stopniowo rozwija narzędzia, zespoły i świadomość, budując fundament pod odpowiedzialne i efektywne wykorzystanie sztucznej inteligencji.
Zgodnie z badaniem Red Hat pt. „AI in financial services: trends, strategies and challenges”, 63% instytucji finansowych wdraża rozwiązania AI – głównie w automatyzacji procesów, handlu algorytmicznym, cyberbezpieczeństwie i obsłudze klienta. Mimo to tylko 15% organizacji ma jasno określoną strategię obejmującą zarówno cele wdrożeniowe, jak i technologie open source. W wielu przypadkach wykorzystanie AI jest fragmentaryczne i reaktywne, a nie systemowe.
Dla 65% firm zgodność z regulacjami (takimi jak NIS2, DORA czy AI Act) jest strategicznym priorytetem. Jednocześnie 39% wyraża obawy co do tego, czy ich narzędzia AI spełniają te wymogi. Do tego dochodzi luka kompetencyjna – 33% firm deklaruje brak wystarczających umiejętności, by bezpiecznie rozwijać projekty AI.
Obawy nie ograniczają się do przepisów. Dla 33% instytucji równie istotne są kwestie etyczne, m.in. ryzyko nieobiektywnych decyzji algorytmów. 28% wskazuje też na wyzwania związane z prywatnością i bezpieczeństwem danych. W tle działa czynnik kulturowy – nieufność wobec nowych technologii i opór przed zmianą.
AI w praktyce: automatyzacja i bezpieczeństwo
Najczęściej sztuczna inteligencja wykorzystywana jest w instytucjach finansowych do automatyzacji procesów i handlu algorytmicznego – wskazuje na to 63% badanych firm. Modele AI analizują dane rynkowe w czasie rzeczywistym, identyfikują okazje arbitrażowe i podejmują decyzje inwestycyjne na podstawie zaprogramowanych reguł. Równie szeroko stosowane są rozwiązania z zakresu cyberbezpieczeństwa (60%) oraz generatywna AI i duże modele językowe (LLM), które wspierają obsługę klienta, automatyzację komunikacji i tworzenie treści.
Coraz powszechniejsze są także zastosowania AI w obszarze oceny ryzyka kredytowego i podejmowania decyzji finansowych – korzysta z nich już 59% instytucji. Tym bardziej zaskakujące jest to, że tylko 41% firm wykorzystuje sztuczną inteligencję do wykrywania nieprawidłowości i przeciwdziałania oszustwom finansowym. To szczególnie istotny obszar w kontekście regulacji takich jak KYC (Know Your Customer) czy AML (Anti-Money Laundering), które stanowią fundament działań compliance w sektorze finansowym. Tak niski poziom wykorzystania AI w detekcji nadużyć pokazuje, że potencjał technologii w tym krytycznym obszarze jest nadal niewykorzystany – zarówno jeśli chodzi o same narzędzia, jak i o kompetencje niezbędne do ich skutecznego wdrożenia i zarządzania nimi.
Etyka i zrównoważony rozwój
Jak się okazuje, ponad połowa firm (58%) powołała zespoły ds. etycznego wdrażania AI, a co druga inwestuje w rozwój kompetencji pracowników. Jednak w kontekście zrównoważonego rozwoju działania są na razie ograniczone – 46% dopiero bada możliwości AI w tym obszarze, a 45% nie traktuje go jako priorytetu. To sygnał, że kwestie ESG są obecne w dyskusji, ale rzadko przekładają się na realne działania.
Otwarte technologie – świadomość dopiero się kształtuje
Zaledwie 15% instytucji łączy strategię AI z open source. Z kolei 21% posiada strategię, ale nie uwzględnia w niej roli otwartych technologii, a 19% respondentów przyznało, że nie rozróżnia pojęć „open source AI” i „open AI” w kontekście strategicznym. Tymczasem przejrzystość, możliwość adaptacji i elastyczność, które daje open source, mogą być kluczowe dla rozwoju odpowiedzialnych i bezpiecznych rozwiązań, wskazują autorzy raportu.
Warto też zwrócić uwagę, że połowa firm rozwija AI wewnętrznie, a 27% w ogóle nie korzysta z zewnętrznych dostawców. Taka strategia może wynikać z potrzeby kontroli nad technologią lub ograniczonego zaufania do partnerów. To również sygnał, że wiele instytucji traktuje AI jako obszar strategiczny, wymagający zabezpieczenia know-how.
„Aby w pełni wykorzystać potencjał sztucznej inteligencji, instytucje finansowe muszą nie tylko zadbać o zgodność z regulacjami i bezpieczeństwo, lecz także konsekwentnie rozwijać kompetencje i zrozumienie dla samej natury tej technologii, zwłaszcza w kontekście otwartości, przejrzystości i etyki algorytmów AI. Sztuczna inteligencja może stać się realnym wsparciem dla innowacyjności i konkurencyjności sektora, pod warunkiem, że będzie wdrażana strategicznie, świadomie, z odpowiedzialnością i jasno określonymi celami” – podsumowuje Lubomir Stojek, country manager Red Hat w Polsce.