Cyberbezpieczeństwo
Cyberprzestępcy coraz częściej korzystają z algorytmów sztucznej inteligencji
Choć AI może być potężnym narzędziem dla cyberprzestępców, pozwalając im na automatyzację ataków i skuteczniejsze unikanie wykrycia, może być również potężnym narzędziem dla specjalistów ds. bezpieczeństwa, pozwalając im na szybsze i skuteczniejsze wykrywanie i reagowanie na zagrożenia. Kto wygra ten pojedynek? Jak sztuczna inteligencja jest wykorzystywana przez cyberprzestępców a jak przez specjalistów od zabezpieczeń i bezpieczeństwa?
Te polaryzujące prognozy skłaniają do zastanowienia się czy wpływ AI na bezpieczeństwo cybernetyczne może się w końcu zrównoważyć? Czy każdy postęp dokonany przez cyberprzestępców może spotkać się z takim samym postępem ze strony specjalistów od bezpieczeństwa? Wszystko wspierane przez te same narzędzia? Oczywiście ta równowaga działa tylko tak długo, jak długo wszyscy nadążają za konkurencją. W miarę jak cyberprzestępcy stają się coraz bardziej sprawni w wykorzystywaniu AI, specjaliści ds. bezpieczeństwa będą musieli również zapewnić, że wykorzystują bardziej zaawansowane narzędzia i techniki do obrony przed tymi atakami.
Jak cyberprzestępcy korzystają z AI?
- wykorzystują AI do identyfikacji celów; skanują internet w poszukiwaniu podatnych systemów na atak,
- tworzą AI-boty w celu naśladowania ludzkich zachowań, aby skuteczniej unikać wykrycia przez systemy bezpieczeństwa,
- generują ukierunkowane e-maili phishingowe za pomocą AI, być może przygotowane na podstawie wielu zestawów danych zdobytych w Dark Web, tak aby zawierały wiarygodne szczegóły, które pomogą zwabić cel i zbudować zaufanie (ponieważ społeczeństwo staje się coraz bardziej przyzwyczajone do interakcji z AI-botami do obsługi klienta, podszywanie się pod te chatboty może stać się użytecznym narzędziem inżynierii społecznej dla złośliwych cyberprzestępców),
- tworzą coraz bardziej wyrafinowane złośliwe oprogramowania, np. wykorzystując sztuczną inteligencję do znajdowania możliwych do wykorzystania wzorców w systemach bezpieczeństwa i tworzą złośliwe oprogramowanie, które jest specjalnie zaprojektowane w celu uniknięcia wykrycia.
Jak specjaliści ds. bezpieczeństwa korzystają z AI?
- analizują ogromnych ilości danych z wielu źródeł w celu identyfikacji i śledzenia potencjalnych zagrożeń. Systemy Threat Intelligence mogą również uczyć się na podstawie przeszłych incydentów, co pozwala im na dostosowanie się i doskonalenie w czasie,
- oferują pracownikom szkolenia przed wystąpieniem incydentu poprzez identyfikację ryzykownych wzorców zachowań, co pozwala pracownikom do podejmowania lepszych decyzji w zakresie ochrony danych i bezpieczeństwa systemu,
- sortują incydenty bezpieczeństwa i nadają im priorytety na podstawie poziomu ryzyka,
- wykorzystują rekomendacje AI w celu skupienia wysiłków na najbardziej krytycznych problemach,
- wykrywają wzorce, które wskazują na potencjalny incydent bezpieczeństwa, a następnie automatycznie uruchamiają reakcje i alarmy dla zespołów bezpieczeństwa (ostatnio udowodnione w swojej skuteczności przez NATO),
- korzystają z automatyzacji badania incydentów; pomoc w identyfikacji pierwotnej przyczyny incydentu i powiadomienie odpowiednich stron.
Kto więc będzie zwycięzcą w tej walce o bezpieczeństwo naszych danych i infrastruktury? Sztuczna inteligencja ma potencjał, aby zrewolucjonizować cyberbezpieczeństwo, ale nie usunie wymogu jasnej architektury i strategii. Nie można jeszcze zlecić naszej pracy tylko maszynom i pójść zrobić sobie filiżankę kawy.
W nadchodzących miesiącach i latach ważne będzie zrozumienie, że sztuczna inteligencja nie jest lekarstwem na wszystko ani samodzielnym rozwiązaniem, ale raczej narzędziem uzupełniającym, które należy stosować w połączeniu z innymi środkami bezpieczeństwa. Podobnie jak ludzki zespół bezpieczeństwa, AI wymaga ciągłego monitorowania, oceny i dostrajania, aby zapewnić, że działa zgodnie z oczekiwaniami i zająć się wszelkimi nieścisłościami w danych.
Steve Foster, Senior Solutions Engineer, Netskope