Sztuczna inteligencjaCyberbezpieczeństwo
Wyścig zbrojeń w Cybersecurity
Mamy wyścig zbrojeń w Cybersecurity. Wojna „czerwonych” z „niebieskimi”, „jasnej strony” z „ciemną”. Trwa już od dawna i warto się mu przyjrzeć, żeby lepiej zrozumieć sytuację, w jakiej dzisiaj jesteśmy. A sprawa wygląda tak, że bezpieczeństwo cyfrowe nigdy nie było tak ważne i tak doceniane jak jest teraz. Zbudujmy sobie odpowiedni kontekst, przechodząc przez najważniejsze etapy tytułowego wyścigu zbrojeń; zobaczmy jak rozwijały się metody ataku, a jak ochrony, a później zobaczmy jak sprawa ma się dzisiaj i będzie miała w przyszłości.
Przeskoczymy czasy zimnej wojny – pojęcia bezpieczeństwa cyfrowego sprowadzały się wówczas głównie do szyfrowania wiadomości i ochrony fizycznej: zarówno sprzętu używanego do tego celu, jak i ludzi posiadających odpowiednią wiedzę lub pełniących role kurierów czy szpiegów. Nie chcę tutaj zagłębiać się w niuanse, bo daleko mi do Wołoszańskiego, ale istotne jest, że taki stan rzeczy (przynajmniej w Polsce) utrzymywał się do lat 90.
Lata transformacji ustrojowej to okres, w którym komputery na dobre zagościły w polskich firmach, organizacjach i urzędach. Wraz z dość swobodną dystrybucją oprogramowania pojawiły się pierwsze wirusy. Na początku były to proste aplikacje, które doklejały się do plików wykonywalnych lub odpowiednich miejsc na dyskietkach, a także programy rezydentne, skuteczniej się rozprzestrzeniające. Szybko ewoluowały z programów nieco uprzykrzających życie (np. grających melodię Yankee Doodle-a w tle na PC Speakerku) do wersji niszczącej dane. Równocześnie rozwijały się ataki na sieci telekomunikacyjne: od wykorzystania częstotliwości 2600 Hz i dialerów, do masowego klonowanie kart magnetycznych umożliwiających „darmowe” rozmowy telefoniczne z budek. W USA był to czas, gdy Kevin Mitnick demonstrował skuteczność inżynierii socjalnej, połączonej ze znajomością podatności sieci telefonicznych i procesów autoryzacji. Obrona wciąż opierała się głównie na ochronie dostępu fizycznego, choć zaczęły pojawiać się programy antywirusowe. Warto wspomnieć świetny polski akcent – bardzo dobry program antywirusowy autorstwa ś.p. Marka Sella: MkS_Vir. Gdy tylko zaczęliśmy podłączać komputery do sieci, pojawiły się zagrożenia związane ze zdalnym dostępem.
Warto wspomnieć popularny żart o Internet Explorerze mówiący, że służył on do przeglądania Internetu z komputera i vice versa. Usługi takie jak ActiveX, VBS czy rozwiązania od Macromedii szybko pokazały, jak można wykradać dane i infekować komputery, wykorzystując podatności platform. Wirusy zyskały zdolność polimorfizmu, co dodatkowo utrudniło ich wykrywanie. Tymczasem inżynieria społeczna przeniosła się na platformy takie jak IRC, ICQ, Gadu-Gadu oraz strony z oprogramowaniem, gdzie często oferowano „gratis” zainfekowane instalatory. Problemy z utratą danych czy niedziałającymi systemami Windows stały się prawdziwą zmorą zarówno w firmach, jak i w domach. Na to wszystko nałożyła się plaga spamu – w ogromnych ilościach. Odpowiedzią na te wyzwania były pierwsze firewalle, takie jak *iptables -j DROP* na Linuksie czy dedykowane rozwiązania dla Windows. Antywirusy zaczęły wykorzystywać heurystykę, a filtry antyspamowe zyskały skuteczne wsparcie w postaci uczenia maszynowego, m.in. klasyfikatorów Bayesa.
Cyberzagrożenia nabierają tempa
W latach dwutysięcznych rozwój cyberzagrożeń nabrał tempa, szczególnie że organizacje funkcjonowały w bardzo zróżnicowanych środowiskach technologicznych. Ataki typu drive-by stały się powszechne i skuteczne, a podatności usług prowadziły do wycieków danych i przejęcia kontroli (warto wspomnieć choćby SMB czy SNMP). W tym okresie zostaliśmy zaznajomieni z pojęciem „zero-day”.
Zmiany dotknęły również sieci telekomunikacyjnych – upowszechnienie telefonów komórkowych otworzyło pole dla nowych zagrożeń, takich jak zatrute SMS-y czy klonowanie kart SIM, co stało się poważnym problemem dla polskich banków. Ataki skutecznie wykorzystywały podatności na wszystkich poziomach: od platform i usług (np. baz danych), przez systemy operacyjne, aż po warstwy sieciowe i sprzętowe.
Do obrony zaczęto stosować skuteczne filtry antyspamowe, listy black/white, sprzętowe firewalle (np. od Cisco czy F5), VPN-y oraz rezydentne antywirusy, w tym także darmowe i open-source’owe. Bezpieczeństwo systemów operacyjnych zaczęto traktować priorytetowo – powstał SELinux, a system Windows doczekał się w końcu solidnych zabezpieczeń. Szyfrowanie przestało być ciekawostką, a stało się wymogiem, czego dowodem było upowszechnienie HTTPS i narzędzi takich jak Tor.
Wkrótce potem ransomware „nauczył się” szyfrować nie tylko stacje robocze, ale także kopie zapasowe, co sparaliżowało działalność wielu firm, takich jak Norsk Hydro w 2019 roku. Ataki DoS zyskały dodatkową literkę „D” za sprawą powszechnych botnetów, które umożliwiły przeprowadzanie rozproszonych ataków tego typu. Nasze telefony stały się „smart”, ale nie na tyle, by uniknąć ataków na ich systemy operacyjne oraz masowego zalewu złośliwych aplikacji. Ataki przybrały charakter wielowektorowy, z zaawansowanym zapleczem w postaci inżynierii społecznej. Przestępstwa w cyberprzestrzeni stały się wręcz usługą przemysłową – Crime-as-a-Service osiągnęło poziom, na którym powstawały przedsiębiorstwa zajmujące się internetowym „scamem”, a nawet sklepy online oferujące pakiety numerów kart kredytowych z gwarancją co najmniej 15% poprawnych CVC lub zwrot pieniędzy.
W odpowiedzi zaczęto wprowadzać Web Application Firewalle (WAF) do ochrony aplikacji webowych. Coraz powszechniej stosowano sandboxing oraz skuteczną ochronę w czasie rzeczywistym. Pojawiły się rozwiązania wieloetapowego uwierzytelniania oraz sprzętowe generatory haseł ną użytkowników. Systemy operacyjne i usługi zostały wzmocnione przez procesy twardego zabezpieczania, tzw. hardening.
A usług przybywało – skala rosła wraz z erą chmury, urządzeń mobilnych i Internetu Rzeczy (IoT). Ataki na podatności usług, bezwzględne wykorzystywanie luk w domyślnych zabezpieczeniach i konfiguracjach urządzeń podłączonych do Internetu zostały „wzbogacone” o ataki na popularne biblioteki (np. log4j, SSH, xz) oraz na sieci bezprzewodowe (cały alfabet: od Bluetooth, przez GSM i Tetra, po WEP i WPA). Do tego doszły masowe wycieki danych, aplikacje agresywnie zbierające informacje oraz naruszenia prywatności przez sprzęt, po którym nikt by się tego nie spodziewał (np. raport Mozilli „Privacy Nightmare on Wheels: Every Car Brand Reviewed”).
W odpowiedzi stosujemy coraz bardziej zaawansowany hardening, oprogramowanie monitorujące, nowe protokoły i powszechne szyfrowanie – teraz już „wszędzie i zawsze”. Hashtagi takie jak #ZeroTrust, #ZeroKnowledge, #SecurityByDesign czy #SecureSDLC są niczym motto wygrawerowane na ścianach („writing is on the wall”).
Ataki celowane
Kolejny ważny etap to ataki celowane, często wspierane przez rządy. Łączą one operacje szpiegowskie z wieloetapowymi atakami, w których przełamanie zabezpieczeń cyfrowych stanowi kluczowy element. Przełomowy, szokująco zaawansowany i głośny był atak na irańską placówkę wzbogacania uranu – Stuxnet w 2010 roku. Niestety, tego typu ataki trwają nadal, o czym świadczą choćby ostatnie incydenty w Iranie, gdzie wybuchające pagery i krótkofalówki doprowadziły do ofiar śmiertelnych.
O wielu takich atakach nie słyszymy – dotyczą one również polskiej infrastruktury i firm. Niektóre z kolei giną w natłoku informacji, jak tegoroczny atak na przepompownię wody w małym miasteczku w Teksasie. Te wydarzenia pokazują, że bezpieczeństwo cyfrowe przestało być jedynie technologiczną kwestią, a stało się sprawą życia i zdrowia. „Drużyna niebieska” (Blue Team) odpowiada dziś nie tylko za ochronę dóbr materialnych, ale także za bezpieczeństwo ludzi.
Od czasów „pana Mietka od komputerów” i „Działu IT” przeszliśmy szybko do specjalistycznych zespołów oraz wojskowych jednostek zajmujących się cyberbezpieczeństwem. W Polsce również zaszła istotna zmiana – od tego roku cyberprzestrzeń została uznana za nową domenę wojny, a Wojska Ochrony Cyberprzestrzeni dołączyły do wojsk lądowych, powietrznych i morskich.
Etap AI
Możemy spojrzeć na sztuczną inteligencję jako kolejny poziom rozwoju automatyzacji – inteligentnego następcę tradycyjnych reguł i „logiki biznesowej”. Jednak takie podejście spłyca skalę i głębokość zmian, które właśnie się rozpoczęły. W tej części artykułu spróbujmy przyjrzeć się, w jaki sposób sztuczna inteligencja jest wykorzystywana przez obie strony i zastanówmy się, jakie mogą być tego konsekwencje.
Ciemna strona + AI
Zacznijmy od malware’u wspomaganego sztuczną inteligencją. Na pierwszy rzut oka może się wydawać, że to po prostu ewolucja znanego nam polimorfizmu, ale przykład Emotet pokazuje, że już kilka lat temu mieliśmy do czynienia z zaawansowanym malwarem, który skutecznie i sprytnie (czy wręcz inteligentnie?) unikał wykrycia, pełniąc rolę platformy (Crime-as-a-Service) dla ataków ransomware. Sztuczna inteligencja przyczynia się do dalszego rozwoju technik unikania wykrycia (jak w przypadku Zeusa), umożliwiając malware’owi rozpoznawanie wzorców alarmów i ruchu sieciowego oraz operowanie poniżej progu detekcji.
Bardziej zaawansowany malware oznacza wzrost liczby ataków, a wykorzystanie AI sprawia, że oprogramowanie tego typu będzie się uczyć zarówno samodzielnie, jak i w sposób nadzorowany, na podstawie poprzednich ataków. Co więcej, będzie zdolne do wykorzystywania informacji zdobytych z innych części organizacji, takich jak godziny pracy czy dane personalne, uzyskane np. z ataku na system kadrowy.
Ataki DDoS stają się bardziej precyzyjne i adaptacyjne, z możliwością szybkiego dostosowania technik w czasie rzeczywistym. Sztuczna inteligencja zwiększa skalę oraz łatwość koordynacji takich ataków, co prowadzi do dalszej industrializacji cyberprzestępczości. Jednocześnie rośnie zagrożenie dla dostawców, usługodawców i organizacji powiązanych, które stają się naturalnymi celami tego typu działań. Narzędzia obronne, które nie będą w stanie skutecznie rozpoznawać nowych, dynamicznych metod ataku, znikną z rynku. Dobrze ucząca się AI w systemach ochrony stanie się podstawowym wymogiem, szczególnie w obliczu coraz bardziej zaawansowanych ataków celowanych.
Uczenie maszynowe, w tym modele LLM (Large Language Models), również stają się celem zaawansowanych ataków. Celem takich działań jest zarówno oszukiwanie systemów obronnych (np. ukrywanie się), jak i manipulowanie AI w celu wymuszenia niepożądanych działań. Przykładem mogą być ataki, w których zatrucie danych wejściowych sprawia, że samochód autonomiczny interpretuje znak „stop” jako znak pierwszeństwa albo że system AI zaczyna postrzegać wycieki danych firmowych jako normalne zjawisko.
Do tego dochodzą ataki na biblioteki (np. poprzez techniki phasingu prowadzące do DoS), na interfejsy użytkownika oraz specyficzne ataki, takie jak prompt engineering, które mogą manipulować zachowaniem modeli generatywnych. Wszystko to dzieje się na tle wciąż obecnych klasycznych zagrożeń i warstw wymagających ochrony.
W związku z tym wiarygodne źródła danych szkoleniowych będą coraz bardziej pożądane, co wymusi ich certyfikację, nadzór oraz podniesienie kosztów dostępu. Jednocześnie modele AI będą musiały być skutecznie zabezpieczane przed nowymi technikami ataków, co otwiera pole dla nowej specjalizacji w obszarze cyberbezpieczeństwa. Tworzenie i implementacja takich zabezpieczeń stanie się kluczowym wyzwaniem dla branży.
Pozyskiwanie wiedzy wspomagane przez AI stało się znacznie łatwiejsze, a social engineering, szczególnie biały wywiad, osiągnęły nowy poziom prostoty i skuteczności. Pozyskane informacje mogą być automatycznie przetwarzane i szybko wykorzystywane w atakach takich jak spear phishing czy whaling. Przykłady takich działań mieliśmy już przy atakach na osoby na wysokich stanowiskach (np. atak na Pathé), ale użycie AI pozwala na dodanie przekonujących szczegółów, co sprawia, że spersonalizowane ataki staną się normą. Pożegnajmy więc stereotypowego „nigeryjskiego księcia”; teraz otrzymamy telefon od „kuzyna” albo „mamy” w potrzebie.
Generatywne AI wkrótce umożliwi wstawianie sztucznych, aktywnych uczestników do telekonferencji, które będą w stanie wyciągać wrażliwe informacje. To oznacza, że uwierzytelnianie musi stać się nie tylko silne, ale też stałe – działające w tle i wspierane przez AI. Wzrasta także znaczenie ochrony danych, zarówno firmowych, jak i prywatnych, ponieważ wszelkie naruszenia będą miały poważniejsze i szybsze konsekwencje. Jednocześnie temat „zapomnienia” w sieci i usuwania danych nabierze znaczenia – inwestycje w firmy oferujące takie usługi mogą stać się opłacalne.
Przykład SolarWinds pokazał, jak łatwo można przeprowadzić atak przez dostawców, a ataki na biblioteki, takie jak log4j czy SSH, dowodzą, że podatności mogą być wykorzystywane na masową skalę, często w sposób celowo ukryty, jak w przypadku wielomiesięcznego implantowania backdoora w xz. Sztuczna inteligencja pozwala na szybkie sprawdzanie zabezpieczeń całego łańcucha dostaw oraz błyskawiczne wykorzystanie znalezionych podatności. Celowany atak na firmę A staje się automatycznie zagrożeniem dla wszystkich jej partnerów i dostawców.
Wymagania dotyczące bezpieczeństwa rosną, co może podnieść próg wejścia na rynek, zwłaszcza dla małych dostawców, ale jednocześnie wymusi wdrażanie zasad #SecureByDesign i #SecureSDLC. Możliwe, że wkrótce pojawią się rankingi bezpieczeństwa bibliotek i frameworków – tak jak dziś oceniamy, który framework webowy jest najszybszy, tak samo będziemy śledzili, który jest najbezpieczniejszy.
Automatyzacja narzędzi rozwija się dynamicznie. Narzędzia takie jak Sn1per czy Autosploit, choć same w sobie niekoniecznie przeznaczone do działań przestępczych, pokazują, że z pomocą AI cały proces ataku – od identyfikacji, przez priorytetyzację, aż po wykorzystanie podatności – jest zoptymalizowany.
To już nie tylko statyczna i dynamiczna analiza kodu – teraz AI wspomaga wykrywanie podatności, pisanie exploitów oraz ich uruchamianie na słabo zabezpieczonych celach. W obszarze przestępczości komercyjnej zmierza to w kierunku modelu „click’n’play”: wybierasz cel, płacisz, a system automatycznie analizuje go i atakuje z wykorzystaniem podatności zero-day. Każda nowo opublikowana usługa czy aplikacja niemal natychmiast stanie się celem takich zautomatyzowanych, opartych na AI ataków.
Jestem Edgar, jestem AI i chronię to miejsce
Żeby nie było tak pesymistycznie, warto spojrzeć na „jasną stronę mocy”, gdzie sztuczna inteligencja wspiera nas zarówno w obronie, jak i w codziennej pracy. Przyjrzyjmy się temu na przykładzie cyklu życia incydentu bezpieczeństwa.
Wykrycie naruszeń chronionej infrastruktury staje się coraz trudniejsze, ale dzisiejsze systemy monitorujące potrafią przetwarzać nadludzką ilość logów i zdarzeń w czasie rzeczywistym. Co więcej, uczą się one struktury naszej infrastruktury: które komponenty ze sobą komunikują się, ile danych wymieniają, kiedy to się dzieje, a także kiedy i skąd pracują użytkownicy. Dzięki temu sztuczna inteligencja w systemach obronnych może szybciej i precyzyjniej wykrywać nietypowe zachowania i zdarzenia. Odciąża nas to od stałego monitorowania skomplikowanych aplikacji i pozwala priorytetyzować najważniejsze incydenty.
Po takim automatycznym triage systemy wspierane przez AI mogą wskazać źródło ataku, jego przebieg oraz zasugerować rozwiązania, a w niektórych przypadkach samodzielnie podjąć działania obronne. Co więcej, już po incydencie, mamy do dyspozycji gotowy raport, zawierający wszystkie zebrane i przeanalizowane informacje – to znacząco przyspiesza działania poincydentowe.
To nie jest wizja przyszłości – rozwiązania typu CNAPP (np. Lacework, Sentinel, Palo Alto) czy nowoczesne next-gen firewalle już teraz opierają się na sztucznej inteligencji, co czyni je znacznie skuteczniejszymi. Oprócz działań poincydentowych, AI wspiera nas również w zapewnieniu zgodności z wymogami formalnymi, standardami oraz politykami bezpieczeństwa. Potrafi szybko i precyzyjnie przeanalizować środowisko, porównać je z wymaganiami, a jeśli damy jej odpowiednie uprawnienia – automatycznie naprawić źle skonfigurowane usługi lub usunąć podatności.
Takie wykorzystanie AI dąży do poziomu, w którym nasz system obronny będzie dobrze rozumiał także, co chroni: jakie ważne dane są chronione, jakie procesy biznesowe są chronione. W przypadku ataku chroni kluczowe elementy, uniemożliwiając utratę danych, ale także zachowując zdolności biznesowe.
A mamy co chronić: zarówno coraz więcej danych zbieramy i generujemy, jak i rośnie świadomość ich roli, a co za tym idzie także wymagania formalno-prawne. Dlatego AI wykorzystujemy w szerokim zakresie – od automatycznej klasyfikacji danych, przez ochronę generatywnego AI, do wykrywania szarego IT. Tutaj mówimy o systemach Data Loss Prevention, antyransomware i inteligentnych firewallach, potrafiących zablokować wykryty wyciek danych (np. przesyłanie dużej paczki danych z miejsca, które do tej pory tego nigdy nie robiło).
Według mnie pójdzie to dalej, w stronę systemów wręcz cenzorskich, które będą potrafiły wyciąć kawałek rozmowy na telekonferencji czy wyczernić kawałek ekranu, żeby zapobiec wyciekowi danych. Przede wszystkim jednak wszystkie te systemy będą zasilały wiedzę głównego obronnego AI. W ten sposób dochodzimy do tego zastosowania, które jest najjaskrawsze w tej chwili – AI, z którym możemy porozmawiać.
Takie główne AI wspomaga nas na wszystkich etapach: wyszukuje, analizuje, śledzi zdarzenia, pomaga zrozumieć, odsiać, ale także podsumować, zasugerować rozwiązanie i zareagować, czyli wymusić zmiany. Ponadto doskonale zdaje rezultaty, unifikując dostęp do wielu zintegrowanych narzędzi, które mamy pod spodem, włączając w to narzędzia operacyjne. Zyskujemy asystenta, który potrafi rozmawiać we wszystkich nastu- (-dziesięciu?) odmianach i językach kwerend, CLI i API, jakie mamy w dzisiejszym środowisku.
W różnym stopniu zaawansowania mamy to już dzisiaj, a rozwinie się to albo w kierunku omnipotencjalnego obronnego AI (mi się tutaj pojawia w głowie Edgar z hotelu w *Altered Carbon*, stąd śródtytuł), albo „prompt hell” – gdzie dostaniemy mnóstwo bardzo rozmownych AI, z którymi porozumienie będzie koszmarem.
Hype na AI, czyli kto prowadzi w wyścigu
Przy szukaniu materiałów łatwiej było mi znaleźć przykłady, w których AI jest wykorzystywane do ataków, niż konkretne zastosowania AI w rozwiązaniach obronnych. To skrzywienie potwierdza raport Splunka (State of Security 2024), w którym na pytanie „komu bardziej pomoże AI?” większość respondentów wskazała atakujących (45% atakującym, 43% broniącym, 12% uznało, że zrównoważy siły). Z drugiej strony może to tylko kwestia percepcji – łatwiej mówić o przeszłych zdarzeniach (dokonanych atakach) niż o przyszłości i możliwościach, jakie daje AI w obronie.
Więc może AI to hype? Lubię Gartnerowski hype-cycle jako narzędzie do zobrazowania etapu rozwoju danej technologii. Jeśli chodzi o sztuczną inteligencję, to conversational AI znajduje się na, albo już za pierwszą górką „hype’u”. Natomiast rozwiązania wykorzystujące AI w systemach cybersecurity na pewno są na pierwszej fali wznoszącej. Cała branża cybersecurity rośnie i będzie rosnąć w najbliższych latach – to pewnik. Z tego wynika, że zastosowania AI w tej dziedzinie również będą się poszerzać.
Patrząc na rys historyczny, który prześledziliśmy w artykule, można się zastanawiać, dokąd prowadzi wyścig zbrojeń. Czy faktycznie robi się coraz gorzej i trudniej? Na pewno zmieniła się skala – słyszymy o atakach częściej i są one bardziej „głośne”. Ale przede wszystkim lepiej zaczęliśmy rozumieć znaczenie danych, procesów i rozwiązań IT, od których jesteśmy tak bardzo zależni. To mocno nawiązuje do tego, o czym pisałem wcześniej – bezpieczeństwo cyfrowe stało się kluczowe, ponieważ od niego zależy nie tylko funkcjonowanie organizacji, ale także zdrowie i życie ludzi.
Nie jest więc gorzej – bezpieczeństwo cyfrowe po prostu stało się ważniejsze. Myślę, że poradzimy sobie z kolejnymi etapami wyścigu zbrojeń i nowymi metodami ataków, w tym tymi wspomaganymi przez AI. Dlaczego? Bo zawsze dawaliśmy sobie radę, a także potrafimy momentalnie reagować na nowe możliwości, jakie oferuje sztuczna inteligencja.
Zresztą – kto, jak nie my?
Bartłomiej Skowronek, Cybersecurity Offering Lead, Ideas Accelerator Lead and Architect w GFT Poland