Cyberbezpieczeństwo

Czy Deepfake zrewolucjonizuje skalę cyberzagrożeń?

Fałszywe wystąpienia angielskiej królowej Elżbiety II i przedstawicieli państw czy sfabrykowane komunikaty służbowe – to tylko niektóre z zastosowań techniki obróbki obrazu powszechnie znanej jako Deepfake. Wykorzystuje się ją także do przeprowadzania ataków związanych z zakupem kart podarunkowych – od początku pandemii odnotowano wzrost liczby tego rodzaju ataków aż o 820%. Zdaniem ekspertów, technologia Deepfake może zrewolucjonizować skalę cyberzagrożeń – cyberprzestępcy będą bowiem wykorzystywać udoskonalone techniki, by atakować firmy i osoby prywatne.

Czy Deepfake zrewolucjonizuje skalę cyberzagrożeń?

Deepfake to sposób obróbki obrazu wykorzystujący sztuczną inteligencję i uczenie maszynowe do nakładania obrazów ruchomych i nieruchomych na obrazy lub filmy źródłowe. W efekcie powstać mogą choćby filmy z udziałem dowolnej osoby, która z jego nagraniem nie miała nic wspólnego, a widzowie nie będą w stanie odróżnić oryginalnego nagrania od fałszywego. Materiały stworzone z użyciem tej technologii mogą mieć wieloraki charakter. Zarówno pozytywny, na przykład rozrywkowy czy edukacyjny – jak i negatywny, w tym dezinformacyjny (tworzenie fake newsów) czy wręcz dyskredytacyjny, którego celem jest ośmieszanie czy atak na osoby publiczne, instytucje, a nawet państwa. Obecna technologia i możliwości sztucznej inteligencji umożliwiają bowiem stworzenie filmów na tyle wiarygodnych, że stają się one kolejnym orężem dla cyberprzestępców.

Filmy Deepfake – prosta droga do różnego rodzaju konfliktów

W ostatnich latach technologia Deepfake rozwinęła się do tego stopnia, że obecnie coraz trudniej stwierdzić, czy ma się do czynienia ze sfabrykowanym filmem czy z faktycznym nagraniem przedstawiającym prawdziwe osoby. Przykładami są choćby film z orędziem Elżbiety II czy materiał przedstawiający przemówienie Baracka Obamy, które w krótkim czasie ukazało się na wielu różnych portalach internetowych. Film z wypowiedzą byłego prezydenta Stanów Zjednoczonych dotyczył nomen omen kwestii zagrożeń, jakie mogą spowodować dezinformacja i fałszywe wiadomości publikowane w Internecie. W materiale opublikowanym przez kanał BuzzFeedVideos głosem prezydenta USA był amerykański reżyser i aktor Jordan Peele. Obecnie jednak sztuczna inteligencja jest w stanie wygenerować głos na podstawie archiwalnych wypowiedzi osoby, która ma pojawić się w sfałszowanym filmie.

“Tak zaawansowana technologia może stać się w przyszłości niebezpiecznym narzędziem w rękach cyberprzestępców i oszustów internetowych. Publikowanie filmów z rzekomych wystąpień ważnych polityków może wywołać realne szkody na szczeblu polityki międzynarodowej. Tego rodzaju filmy bazujące na technologii Deepfake mogą przyczynić się do powstawania konfliktów i skandali dyplomatycznych, a przez to wpływać na opinie i zachowania społeczne. Filmy z wykorzystaniem Deepfake publikowane w czasie trwania kampanii wyborczych mogą z kolei przełożyć się na wyniki wyborów” – ocenia Kamil Sadkowski, starszy specjalista ds. cyberbezpieczeństwa ESET.

Technologia Deepfake w arsenale cyberprzestępców

Technologia, która umożliwia stworzenie złośliwego obrazu, nagrania audio czy filmu, którego bohaterowie są łudząco podobni do innych osób jest niebezpieczna ze względu na możliwość nowego poziom zagrożeń ze strony cyberprzestępców. Szczególnie wobec faktu, że w mediach społecznościowych mogą oni czerpać praktycznie nieograniczone zasoby materiałów źródłowych do tworzenia Deepfakes. I tak, oprogramowanie wykorzystujące uczenie maszynowe może przeczesywać np. Facebooka czy Instagram i wyłapywać interesujące zdjęcia czy filmy potencjalnych „aktorów”. Jak wskazują specjaliści od cyberbezpieczeństwa, na tej podstawie może stworzyć bardzo wyraźny głos, obraz i film z udziałem danej osoby, ale ze specjalnie spreparowaną fałszywą komunikacją imitującą na przykład znalezienie się w poważnych tarapatach – jako ofiary porwania czy wypadku. W kolejnym kroku wygenerowana zostaje fałszywa prośba o pomoc, na przykład finansową, skierowaną do jej bliskich, czyli ofiar ataku.

Z kolei w wypadku ataków na firmy, technologia Deepfake umożliwia stworzenie bardzo realistycznych, fałszywych rozmów telefonicznych, w których przełożony prosi na przykład o zrealizowanie przelewu. W ten sposób w 2019 roku przestępcy wyłudzili 243 tys. dolarów od jednej z brytyjskich firm energetycznych. Innym rodzajem jest atak specjalnych botów wykorzystujący karty podarunkowe. W praktyce wygląda to tak, że bot podszywający się pod szefa instruuje pracownika by zamówił określone karty podarunkowe. Podczas konferencji Black Hat USA 2021, dr Matthew Canham, profesor ds. cyberbezpieczeństwa Institute of Simulation and Training, University of Central Florida, przedstawił badanie, w którym stwierdził, że od czasu pandemii Covid-19 nastąpił wzrost tego procederu o 820%.

“Wraz z rozwojem i coraz powszechniejszym stosowaniem technologii Deepfake, skuteczność ataków tego typu może diametralnie wzrosnąć. Dotychczasowe przykłady pokazują, że Deepfake wszedł do arsenału cyberprzestępców, a ochrona przed nim będzie trudna. Istnieją jednak sposoby, by spróbować się uchronić przed tego typu atakiem” – zapewnia Kamil Sadkowski.

Aby uniknąć oszustw opartych o technologię Deepfake konieczne jest stosowanie kilku proaktywnych kroków.

  • Stworzenie z bliskimi osobami, takimi jak członkowie rodziny czy współpracownicy tajnego słowa lub hasła, które będzie stanowiło dowód, że sytuacja z filmu czy nagrania jest prawdziwa. Pozwoli to na szybką weryfikację rzeczywistego stanu zagrożenia i uniknięcie na przykład wyłudzenia pieniędzy.
  • Uzgodnienie z bliskimi czy współpracownikami katalogu działań, o które nigdy nie zostaną poproszeni poprzez komunikat na przykład w mediach społecznościowych czy SMS. Konieczne jest poinformowanie wszystkich zainteresowanych o pełnym zakresie tych niepożądanych działań.
  • Wdrożenie kanałów uwierzytelniania wieloskładnikowego, aby zweryfikować każde żądanie. Jeśli komunikacja rozpoczyna się od wiadomości tekstowej, najbezpieczniejsze jest potwierdzenie informacji poprzez kontakt z adresatem wiadomości w formie rozmowy przez uzgodniony wcześniej i bezpieczny kanał komunikacji.
  • Stałe podnoszenie kompetencji z zakresu bezpieczeństwa, na przykład w formie szkoleń kadry pod kątem zabezpieczeń i cyberprzestępczości. Uświadamianie, czym jest Deepfake oraz jak przeciwdziałać temu zagrożeniu.
  • Wspomaganie i rozwój systemów bezpieczeństwa w środowiskach teleinformatycznych.
Tagi

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *