CyberbezpieczeństwoSztuczna inteligencjaPolecane tematy

Generatywna AI – sprzyja bardziej cyberprzestępcom czy cyberpolicjantom?

Według CISO Report, ogłoszonego w październiku br. globalnego badania opinii szefów cyberbezpieczeństwa firm z różnych branż, 70% z nich uważa, że sztuczna inteligencja bardziej sprzyja atakującym niż obrońcom. Jednym i drugim ułatwia oraz przyspiesza pracę, a na dodatek stale ją udoskonala. Z jednej strony nawet początkujący programista może nakłonić to narzędzie do napisania złośliwego kodu, a z drugiej nawet małe i średnie firmy wspierane przez AI mogą radzić sobie z coraz bardziej wyrafinowanymi cyberatakami. Skąd zatem aż tyle wskazań na ciemną stronę mocy?

Generatywna AI – sprzyja bardziej cyberprzestępcom czy cyberpolicjantom?

Od lat sztuczna inteligencja obsadzana jest w roli cyberpolicjanta. We wspomnianym badaniu CISO Report, eksperymentowanie z tą technologią w celu cyberobrony zadeklarowało 35% szefów bezpieczeństwa. Systemy AI monitorują sieci, wykrywają nielegalne aktywności, identyfikują potencjalne zagrożenia i przeciwdziałają nim. Problem polega na tym, że zarówno ci dobrzy, jak i ci źli korzystają z tych samych technologii.

Przykłady zastosowań

Sieci GAN (Generative Adversarial Networks) są metodą, którą cyberprzestępcy wykorzystują m.in. do tworzenia tzw. deepfake’ów, czyli nieprawdziwych treści, takich jak fałszywe zdjęcia, filmy i nagrania dźwiękowe. Te algorytmy pozwalają na precyzyjne mapowanie mimiki twarzy, gestów, ruchów warg i innych subtelnych detali, co sprawia, że podróbki są trudne do zidentyfikowania.

Z kolei specjaliści ds. cyberbezpieczeństwa, używając tych samych sieci GAN, tworząc narzędzia do wykrywania deepfake’ów. Są one w stanie wykryć np. ruchy oczu niezgodne z mimiką twarzy, błędne odbicia światła lub niewłaściwe cienie. Natomiast popularna metoda z obszaru technologii przetwarzania języka naturalnego (NLP) – Transformer – ułatwia wykrywanie fałszywych nagrań głosowych np. poprzez znalezienie niezgodności w mowie, dziwacznych intonacji lub tekstu, który nie pasuje do kontekstu. AI analizuje też metadane plików multimedialnych w celu wykrywania niespójnych informacji o miejscu, dacie, czy źródle. Sieci GAN są również wykorzystywane do tworzenia testów bezpieczeństwa i symulacji ataków. Przy pomocy materiałów typu deepfake w połączeniu z autentycznymi treściami trenuje się modele, które później pomagają w identyfikacji podejrzanych materiałów. Technologii i metod stosowanych w walce z deepfake’ami jest więcej.

Tymczasem po ciemnej stronie mocy sztuczna inteligencja jest wykorzystywana do zautomatyzowanego przeprowadzania ataków, takich jak phishing, DDoS (paraliżujących działanie stron i systemów) lub próby kradzieży danych. SI pomaga również w tworzeniu bardziej zaawansowanych narzędzi do infiltracji systemów czy unikania wykrycia.

“O czarnym charakterze sztucznej inteligencji decyduje jej naturalny brak moralności, wynikający po prostu z faktu, że nie kryje się za nią żadna magiczna samoświadomość, tylko bezwzględna matematyka. Końcowy efekt jej pracy zależy wyłącznie od moralności użytkowników i poziomu zabezpieczeń” – podkreśla Mateusz Łępicki, lider Data Competency Center w Avenga.

Nie ustaje walka między atakującymi a obrońcami

Specjaliści od cyberbezpieczeństwa nieustannie szukają sposobów na coraz lepsze zabezpieczenia sieci, a cyberprzestępcy kombinują, jak je ominąć. I znowu pierwsze skrzypce gra tu sztuczna inteligencja. Dzięki wykorzystaniu modeli predykcyjnych, zazwyczaj reaktywne działania cyberpolicjantów mogą stać się proaktywne. Narzędzia stworzone przy udziale uczenia maszynowego na podstawie historycznych danych przewidują przyszłe zdarzenia. Modele predykcyjne są więc w stanie wykrywać zagrożenia jeszcze przed ich zaistnieniem, ale ich skuteczność mocno zależy od jakości wprowadzanych danych.

Zaawansowane programy antywirusowe wykorzystują sztuczną inteligencję do znajdowania anomalii w ogólnej strukturze, logice programowania i przepływie danych. Skanują ruch sieciowy i dzienniki systemowe w poszukiwaniu nieautoryzowanego dostępu, nietypowego kodu i innych podejrzanych wzorców, aby zapobiec naruszeniom. Filtry poczty e-mail mogą analizować tekst w celu oznaczania wiadomości e-mail z podejrzanymi wzorcami (np. próbami phishingu) i blokowania różnych rodzajów spamu. Chroniąc wrażliwe dane sztuczna inteligencja może je zablokować w momencie, kiedy będzie podjęta próba wysłania ich poza sieć firmy lub instytucji.

Narzędzia kontroli dostępu wykorzystują sztuczną inteligencję do blokowania logowań z podejrzanych adresów IP, oznaczania podejrzanych zdarzeń oraz proszenia użytkowników ze słabymi hasłami o zmianę danych logowania i przejście na uwierzytelnianie wieloskładnikowe. Z drugiej strony podnoszą bezpieczeństwo uwierzytelniania stosując np. dane biometryczne, informacje kontekstowe i dane o zachowaniach użytkowników do weryfikowania ich tożsamości.

W tym samym czasie cyberprzestępcy zatrudniają sztuczną inteligencję do tworzenia bardziej zaawansowanych i trudnych do wykrycia wirusów i trojanów. Mogą też przejmować kontrolę nad samochodami autonomicznymi, maszynami budowlanymi, sprzętem produkcyjnym czy systemami medycznymi powodując fizyczne zagrożenie dla otoczenia.

W cybernetycznej walce dobra ze złem żołnierzami ciemnej strony mocy często są boty. Mając oparcie w sztucznej inteligencji mogą pomagać cyberprzestępcom w oszustwach i wyłudzeniach: przejmują konta przy pomocy skradzionych danych uwierzytelniających, uszkadzają lub wyłączają sieci i strony internetowe. W reakcji na to powstało oprogramowanie, które może analizować ruch sieciowy i dane w celu identyfikacji wzorców botów i pomagać ekspertom ds. cyberbezpieczeństwa w ich zwalczaniu. Tu znowu dostają oni pomoc sztucznej inteligencji, która m.in. opracowuje przeciwko botom bezpieczniejsze CAPTCHA, pilnując, aby dane były przesyłane wyłącznie przez ludzi.

“Sztuczna inteligencja jest dziś kluczowym narzędziem w walce między hakerami i cyberpolicjantami. Wydaje się, że inicjatywa należy do przestępców, ale ekspertom ds. bezpieczeństwa coraz lepiej wychodzi ograniczanie możliwości nielegalnego wykorzystania sztucznej inteligencji. Nasze cyberbezpieczeństwo nadal zależy więc przede wszystkim od ludzi – naukowców, inżynierów i innych osób za to odpowiedzialnych” – twierdzi Mateusz Łępicki.

Człowiek najsłabszym elementem

Sztuczna inteligencja wspierając cyberpolicjantów w ochronie sieci pomaga ograniczyć ryzyko wystąpienia błędów ludzkich. Tymczasem to samo narzędzie w rękach cyberprzestępców bezlitośnie wykorzystuje wszystkie ludzkie ułomności.

AI doskonali manipulacje psychologiczne, socjologiczne i wywieranie wpływu przekonując ofiary do określonych zachowań, przekazywania pieniędzy albo ujawniania informacji oraz udostępniania zasobów. Ponadto pomaga w idealnym naśladowaniu np. korespondencji banków, firm czy organizacji, co skłania oszukanych ludzi do ujawniania haseł, numerów kart kredytowych lub danych osobowych.

Sztuczna inteligencja generuje głosy wykorzystywane do symulowania rozpaczy ofiar porwań dla okupu lub do oszukiwania metodą „na wnuczka”. Podrobione głosy prawdziwych liderów opinii zachęcają do inwestycji, skorzystania z promocji lub przekazania darowizny. Sztucznie wygenerowany głos może tak dobrze naśladować oryginał, że oszukuje oprogramowanie do rozpoznawania głosu. Poza tym, przy pomocy głosów podszywających się pod osoby z działu HR cyberprzestępcy mogą zdobywać poufne dane pracowników. Udając osoby z działu zakupów próbują zmieniać numery kont bankowych w celu wyłudzenia płatności na własne konta. Atakują centra obsługi klientów, aby uzyskać dostęp do kont klientów, zmienić dane kontaktowe lub dokonać transakcji na niekorzyść klienta.

Cyberprzestępcy wykorzystują zaawansowane technologie do nagrania głosu osób zajmujących kluczowe stanowiska w zarządach firm. Następnie używają tych nagrań, aby zadzwonić do pracowników finansowych lub innych, prosząc o pilne przekazanie dużych środków finansowych na określone konto. Pierwszy nagłośniony w Europie atak tego rodzaju został opisany już w październiku 2019 roku. Napastnicy oszukali brytyjską firmę energetyczną wyłudzając 243 000 dolarów. Pieniądze przelane na węgierski rachunek bankowy zostały następnie przeniesione do Meksyku i rozesłane do innych lokalizacji. W tym przypadku stratę zrekompensował ubezpieczyciel.

Ochrona wymaga też powszechnej świadomości zagrożeń

Cyberprzestępcy szukają sposobów na dobranie się do danych gromadzonych przez sztuczną inteligencję. Dzięki nim mogą poznawać tajemnice firm i instytucji albo naruszać prywatność ludzi. Poprzez modyfikowanie lub zatruwanie danych wykorzystywanych do tworzenia modeli sztucznej inteligencji mogą zakłócać funkcjonowanie całych branż.

Jednocześnie właściciele najpopularniejszych chatbotów, OpenAI ChatGPT i Google Bard próbują zwalczać wykorzystywanie dużych modeli językowych (LLM) w przestępczej działalności. Nie jest jednak tajemnicą, że cyberprzestępcy obchodzą te ograniczenia np. wykorzystując API ChatGPT, skradzione konta premium lub oprogramowanie do włamywania się na konta przy użyciu długich list nielegalnie pozyskanych adresów e-mail i haseł.

Aby ułatwić sobie działalność, przestępczy świat stworzył już własnego chatbota WormGPT. Narzędzie działa bez żadnych granic etycznych i nawet początkującym cyberprzestępcom umożliwia przeprowadzanie ataków szybko i na dużą skalę.

“Ochrona przed coraz bardziej wyrafinowanymi atakami wymaga nie tylko nadążania za rozwojem technologicznym i solidnych strategii obronnych, ale też powszechnej świadomości zagrożeń i metod zapobiegania im. Walka o bezpieczną sieć zapewne nigdy się nie skończy i będzie wymagać coraz lepiej przygotowanych do niej ludzi” – podsumowuje Mateusz Łępicki.

Tagi

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *