CyberbezpieczeństwoRynek

Jak rozpoznać deepfake?

Nadchodzące wybory do Parlamentu Europejskiego to największe międzynarodowe głosowanie na świecie stanowiące niestety doskonałą okazję dla cyberprzestępców. Nieustannie rozwijająca się technika tworzenia fałszywych treści wizualnych i dźwiękowych (deepfakes) ma potencjał, aby zaburzyć porządek tych wyborów. Jak zatem rozpoznać deepfake?

Jak rozpoznać deepfake?

Deepfakes to bazująca na sztucznej inteligencji metoda obróbki obrazu, umożliwiająca tworzenie sfabrykowanych materiałów wideo. Filmy te często powstają w celu skompromitowania przedstawianych na nich osób, a następnie są wykorzystywane do manipulowania opinią publiczną. Treści deepfakes mogą okazać się szczególnie niebezpieczne w kontekście głosowań, których w nadchodzących miesiącach odbędzie się wiele. Rok 2024 jest bowiem rekordowy pod względem liczby wyborów odbywających się na całym świecie. Urny zostaną w nim otwarte w ponad 50 państwach.

“Twórcy sfabrykowanych materiałów audio i wideo korzystają z różnych technik. Najczęściej decydują się na zastosowanie generatywnej sieci przeciwstawnej (GAN), która uczy się rozpoznawać wzorce za pomocą algorytmów. Popularność zyskują także dostępne w internecie generatory deepfakes. Narzędzia te wykorzystują zaawansowane algorytmy sztucznej inteligencji – autokodery. Umożliwiają one modyfikowanie oraz zastępowanie twarzy, a nawet tworzenie zupełnie nowych treści wizualnych. Metoda ta odgrywa kluczową rolę w procesie przenoszenia jednego obrazu na drugi” – wyjaśnia Robert Dąbrowski, szef zespołu inżynierów Fortinet w Polsce.

Sfabrykowane treści mogą być wykorzystywane do przeprowadzania tzw. ataków dezinformacyjnych. Działania te polegają na rozpowszechnianiu nieprawdziwych, nierzadko sensacyjnych informacji za pomocą różnych kanałów. Mogą być to portale społecznościowe, strony internetowe, wiadomości SMS i e-maile, a nawet tradycyjne media. Choć proceder ten istniał od dawna, technologia deepfakes uczyniła go jeszcze groźniejszym. Wynika to z faktu, że fałszywe informacje znajdują rzekome potwierdzenie w materiałach wideo i audio, przez co wydają się bardziej wiarygodne.

Sytuacji nie pomaga fakt, że według przeprowadzonego przez firmę iProov badania How To Protect Against Deepfakes – Statistics and Solutions, jedynie ok. 30% użytkowników sieci jest świadomych istnienia materiałów deepfakes. Ich autorzy mają więc znaczny potencjał do wywierania realnego wpływania na opinię publiczną. Mogą podejmować różne działania, takie jak wygenerowanie i rozpowszechnienie kontrowersyjnej wypowiedzi kandydata w wyborach lub kierowanie fałszywych, sabotujących kampanię instrukcji do jego sztabu.

5 charakterystycznych cech deepfakes

Liczba materiałów deepfakes w sieci dynamicznie wzrasta. Jak wskazuje Contentdetector.ai, między 2019 a 2023 rokiem przybyło ich o 553%. Ich mnogość oraz rosnąca precyzja w odwzorowywaniu rzeczywistości sprawiają, że odróżnienie fałszu od prawdy bywa trudne. Nie jest to jednak niemożliwe. Materiały te wciąż nie są bowiem doskonałe i mają kilka charakterystycznych cech pozwalających na wykrycie oszustwa. Oto one:

  • Oczy osoby mówiącej – postaci przedstawione w treściach typu deepfakes przeważnie nie mrugają i nie poruszają gałkami ocznymi.
  • Twarze osób występujących w wideo – nieadekwatna mimika, niedopasowanie ruchu ust do wypowiadanych słów lub punktowe rozmycia mogą świadczyć o nieprawdziwości materiału.
  • Kształt ciała mówcy – technologia deepfakes koncentruje się na jak najwierniejszym odwzorowaniu twarzy, często zaniedbując resztę ciała postaci. Jeżeli jej sylwetka jest pozbawiona detalu lub wydaje się wyglądać nienaturalnie, istnieje duże prawdopodobieństwo, że wideo jest sfabrykowane.
  • Światło i kolory – obrazy deepfakes są podatne na przebarwienia. Dodatkowo pojawiające w nich cienie często pojawiają się pod niewłaściwym kątem, a oświetlenie zyskuje nienaturalne barwy.
  • Nietypowa perspektywa i ruchy mówców – mowa ciała osób przedstawionych w materiałach deepfakes często nie jest spójna z ich wypowiedziami. Ponadto postacie te mogą zanikać, gdy zbliżają się do innych osób i obiektów w wideo.
Tagi

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *