Sztuczna inteligencjaCyberbezpieczeństwoAnalitykaRynekPolecane tematy

Oszustwa i nadużycia w administracji: dobre AI ma zwalczyć złe AI

Rosną straty administracji z tytułu wyłudzeń i nadużyć przy użyciu AI. Specjaliści z administracji rządowej zamierzają korzystać z tych samych technologii, co oszuści, aby uodpornić swoje systemy.

Oszustwa i nadużycia w administracji: dobre AI ma zwalczyć złe AI

Ilustracja: Copilot / Designer

Badanie „Trust and transparency: Combating fraud to maximize public program efficiency” przeprowadzone przez Coleman Parkes dla SAS od listopada 2024 r. do stycznia 2025 r. objęło 1100 ekspertów wyższego i średniego szczebla z sektora publicznego: agencji i departamentów infrastruktury, transportu, świadczeń socjalnych, usług publicznych, agencji śledczych, podatkowych, celnych, wymiaru sprawiedliwości i bezpieczeństwa narodowego, odpowiedzialnych za monitorowanie nadużyć. Prawie wszystkie agencje rządowe odnotowują nadużycia finansowe wykorzystujące AI – zdecydowana większość ankietowanych twierdzi, że ich agencje były celem ataków zrealizowanych z wykorzystaniem narzędzi AI.

1/6 budżetu administracji wyłudzają oszuści z pomocą AI?

Obszary, w których zachodzi obecnie najwięcej oszustw to m.in. płatności, zarządzanie tożsamością, podatek dochodowy od osób fizycznych, świadczenia i usługi socjalne, oraz podatek dochodowy od podmiotów prawnych. W ciągu najbliższych pięciu lat skala przestępstw w tych obszarach ma jeszcze wzrosnąć, np. w płatnościach i zarządzaniu tożsamością (według odpowiednio 54% i 51% respondentów).

70% ankietowanych zaobserwowało wzrost liczby oszustw tego typu w ciągu ostatnich pięciu lat. W ocenie respondentów, wyeliminowanie ich pozwoliłoby odzyskać ok. 16% ich budżetów. Nieomal wszyscy, bo aż 96% respondentów, są zgodni, że oszustwa i nadużycia w obecnej skali negatywnie podrywają zaufanie społeczne do administracji.

Administracja stanie do walki – ale nie ma broni

Inwestycje w sztuczną inteligencję mogą stanowić remedium na falę opartych na GenAI oszustw przynoszących istotne straty oraz kryzys zaufania publicznego do agencji rządowych. Specjaliści z administracji rządowej zamierzają korzystać z tych samych technologii, co oszuści, aby uodpornić swoje systemy. Sztuczna inteligencja (AI) i generatywna AI (GenAI) są postrzegane jako strategiczne narzędzia w walce z oszustwami, z prognozowanym znacznym wzrostem ich wykorzystania, pomimo obaw dotyczących prywatności i odpowiedzialności. Czy jednak będzie to możliwe?

  • Obecnie 52% ankietowanych wykorzystuje już sztuczną inteligencję do zwalczania nadużyć, a 28% korzysta w tym celu z GenAI.
  • Pomimo uznania walki z oszustwami za priorytet przez 85% ankietowanych, agencje rządowe borykają się jednak z istotnymi brakami w zasobach, kompetencjach analitycznych i technologiach.
  • Tylko 1 na 10 podmiotów posiada niezbędne narzędzia i zasoby potrzebne do przeciwdziałania nadużyciom, a prawie jedna trzecia boryka się ze znacznymi ograniczeniami zasobów. W szczególności administracji brak kompetencji analitycznych (48% / 46%), brak odpowiednich technologii (40%) oraz ograniczenia budżetowe (24%).
  • 97% respondentów oczekuje wykorzystania GenAI (w tym danych syntetycznych, dużych modeli językowych i cyfrowych bliźniaków) w walce z oszustwami w ciągu najbliższych dwóch lat. Wykorzystanie analizy sieciowej do wykrywania oszustw ma wzrosnąć z 32% do 87% w ciągu dwóch lat.
  • Wśród instytucji, które już wykorzystują sztuczną inteligencję do obrony, najczęściej wymienianą korzyścią (57%) jest większa wydajność personelu. Prawie 40% wskazuje na lepszą priorytetyzację alertów o oszustwach i szybszą identyfikację nadużyć w większych ilościach.
  • Mimo optymizmu, agencje wskazują również na wyzwania związane z wdrażaniem AI, takie jak prywatność i bezpieczeństwo (48%) oraz zapewnienie, że organizacja korzysta z rozwiązań AI w sposób odpowiedzialny (43%). Podkreślają, że ludzki nadzór ma kluczowe znaczenie dla zapewnienia integralności programów.

Ścigając martwe dusze

Znaczenie AI/GenAI na polu walki administracji z cyberprzestępcami podkreślają także inne badania i raporty.

Według amerykańskiego Government Accountability Office, straty z tytułu oszustw, wyłudzeń i pomyłek w administracji wynoszą od 233 do 521 mld dolarów rocznie (na podstawie niepełnych danych z lat 2018-2023). System Do Not Pay amerykańskiego Departamentu Skarbu, który porównuje bazy aktów zgonu, zatrzymał 31 mln USD błędnych wypłat w ciągu 5 miesiecy; a Pandemic Analytics Center of Excellence (PACE) – wykorzystał sieci grafowe i ML do odzyskania 109 mln USD w oszustwach covidowych. GAO podkreśla jednak, że „bez wysokiej jakości danych i kadr AI” skuteczność pozostanie ograniczona.

Brytyjski National Audit Office (NAO) szacuje przedział strat między 55 do 81 mld funtów (lata 2023 – 2024).  Generatywna AI stanowi w kontekście administracji doskonałe wsparcie dla cyberprzestępczości: błyskawicznie tworzy syntetyczne tożsamości, deepfake’i i personalizowane ataki, co grozi gwałtownym wzrostem skali oszustw do 2025 r. oraz erozją zaufania do instytucji państwa. Jak przestępcy używają AI? Modus operandi opiera się najczęściej na sieci botów i syntetycznych danych do wyłudzania świadczeń. Innym problemem jest automatyzacja fałszywych faktur dla sektora zakupów publicznych (bid-rigging).

Tylko kilka resortów administracji brytyjskiej korzysta z uczenia maszynowego do zapobiegania płatnościom nieuzasadnionym (pomyłkom i próbom wyłudzenia), a większość projektów wciąż musi naprawiać popełnione błędy lub ścigać przestępstwa.

Ministerstwo pracy i płacy wykorzystuje model ryzyka Targeted Case Review, który pozwolił na zweryfikowanie 1,15 mln spraw i odzyskanie 1 mld funtów skorygowanych/powstrzymanych nadpłat. Z kolei Królewska agencja przychodów i ceł (HMRC) stosuje własne silniki ML łączące ponad100 źródeł danych, odzyskując 3–4 mld GBP rocznych wpływów z tytułu zapobieżonych lub wycofanych należności.

 

Tagi

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *