CDOPolecane tematy

Sztuczna inteligencja: miecz i tarcza (dez)informacji

Prawdziwe informacje, jak woda, powietrze i pożywienie, współdecydują o przetrwaniu i jakości życia ludzkiego. „Epoka cyfrowa”, w jakiej żyjemy nie zmienia tego faktu, ale mnoży pokusy i możliwości sprawcom dezinformacji. Weaponizacja nowoczesnych technologii obejmuje także ich zastosowanie jako narzędzi operacji informacyjnych, manipulacji świadomością dużych grup ludzkich, czy cyberataków. W każdej z tych dziedzin, AI zwiększa szybkość, precyzję i wyrafinowanie działań, pozwala na zatarcie śladów i unikanie odpowiedzialności.

Sztuczna inteligencja: miecz i tarcza (dez)informacji

Sztuczna inteligencja (AI) słusznie jest uznawana za technologię przełomu, posiadającą potencjał zmiany stylu życia i sposobu postrzegania rzeczywistości przez ludzi. Niezależnie, jak odległy jest horyzont fundamentalnych zmian, które niesie, stopniowo przenika ona do życia codziennego. Poszerza zastosowania w usługach, produkcji, rozrywce, medycynie, obronności czy mediach. AI ułatwia dziś nie tylko zaspokajanie potrzeb informacyjnych przez ludzi, ale staje się niezbędna dla utrzymania standardu usług, nieosiągalnych dziś bez jej możliwości.  Systemy informatyczne wykorzystujące Big Data, sieci 5G i wielkie moce obliczeniowe komputerów, powiązane internetem rzeczy (IoT), tworzą nowe perspektywy rozwojowe dla gospodarki i nowe obszary rywalizacji międzynarodowej.

Sztuczna inteligencja a bezpieczeństwo informacyjne

„Wyścig zbrojeń” technologicznych między światowymi mocarstwami służy zarówno utrzymaniu ich pozycji międzynarodowej, jak też niwelowaniu różnic (niemożliwemu do osiągnięcia na tradycyjnych polach rywalizacji). Istotę sprawy precyzyjnie wyraził prezydent Rosji, stwierdzając, że państwo, które pierwsze opanuje sztuczną inteligencję zdominuje stosunki międzynarodowe. Ambicje Władimira Putina – a jeszcze bardziej przywódców Chin w tym względzie – mogą napawać niepokojem.

Zachód co dzień doświadcza agresywnych operacji informacyjnych (głównie ze strony Rosji) wzmacniających podziały na tle politycznym, społecznym i kulturowym. Korzystają one z rozwijających się funkcjonalności sztucznej inteligencji, obsługującej procesy komunikacji społecznej, w roli „przyspieszacza” przesyłu, indywidualizacji i multiplikacji informacji, czy też autonomicznego kreatora treści. W tej ostatniej dziedzinie możliwości „maszyn uczących się” pokazuje system znany jako Generative Pre-Trained Transformer 3 (GPT-3), zdolny do samodzielnego tworzenia tekstów pisanych w oparciu o względnie prosto sformułowane zadanie (w służbie prawdy, lub fałszu).

Zachód co dzień doświadcza agresywnych operacji informacyjnych (głównie ze strony Rosji) wzmacniających podziały na tle politycznym, społecznym i kulturowym. Korzystają one z rozwijających się funkcjonalności sztucznej inteligencji, obsługującej procesy komunikacji społecznej, w roli „przyspieszacza” przesyłu, indywidualizacji i multiplikacji informacji, czy też autonomicznego kreatora treści. W tej ostatniej dziedzinie możliwości „maszyn uczących się” pokazuje system znany jako Generative Pre-Trained Transformer 3 (GPT-3), zdolny do samodzielnego tworzenia tekstów pisanych w oparciu o względnie prosto sformułowane zadanie (w służbie prawdy, lub fałszu).

Przeczytaj również
E-mail coraz istotniejszym wektorem ukierunkowanych ataków na użytkowników biznesowych

Sygnalizuje to możliwości stające przed dezinformacją jako narzędziem w rękach państw, korporacji czy organizacji przestępczych. Dotyczą one nie tylko operacji na treściach i obrazach, lecz sięgają także fabrykowania ludzkiej tożsamości, nadawania pozorów autentyczności fikcyjnym kontom w sieciach społecznościowych i przekazów atrybuowanych konkretnym ludziom (Deep Fake). W zderzeniu z polityką, może to nieść niewyobrażalne konsekwencje, z konfliktami zbrojnymi włącznie, wpływem na zachowania wyborcze ludzi, stosunek do konkurentów i decyzje polityczne. Jednym z najbardziej znanych przykładów perfidnej manipulacji była próba dyskredytacji Nancy Pelosi, przewodniczącej Izby Reprezentantów Kongresu USA i znanej przeciwniczki ówczesnego prezydenta USA, w spreparowanym video prezentującym ją jakoby pod wpływem alkoholu.

Uzależnienie współczesnego świata od informacji i ich internetowych przekaźników (nazywane infodemią) w połączeniu z możliwościami AI tworzy istną mieszankę wybuchową. Jej rzeczywiste skutki pokaże jednak dopiero przyszłość. Jak niegdyś dynamit, który stał się zarówno narzędziem zniszczenia, jak i rozwoju, tak i dziś sztuczna inteligencja może stać się największym zagrożeniem, lub zabezpieczeniem bezpieczeństwa informacyjnego człowieka.

Inicjatywy w obronie prawdy

Zadanie „służby prawdzie” nie jest jednak proste. Trudność wyznacza bowiem nie tylko skala wyzwań technologicznych, lecz także cała sieć uwarunkowań prawnych, organizacyjnych i politycznych składających się na społeczne otoczenie zastosowań sztucznej inteligencji. Paradoksalnie bowiem sytuacja obrońców prawdy, jest trudniejsza, aniżeli producentów fake newsów i ich zleceniodawców (za nic mających prawdę, ogólnoludzkie wartości i ład społeczny).

Problem stanowi złożony kontekst regulacyjny ładu informacyjnego, roli nowoczesnych technologii w tej mierze, czy zapewnienia uczciwej współpracy rzędów (regulatorów zainteresowanych porządkiem), właścicieli mediów (zainteresowanych zyskiem) oraz wytwórców i użytkowników informacji (niechętnych ograniczaniu ich wolności). Sprawy dezinformacji ma podjąć spodziewana wkrótce regulacja Unii Europejskiej, której założenia zostały ogłoszone w grudniu 2020 r. Kwestie te znajdą zapewne także swoje miejsce w przygotowywanej przez NATO pierwszej sojuszniczej strategii sztucznej inteligencji.

Wszystko zaczyna się od pytania o podmiot i jego umocowanie prawne do stwierdzenia, co może zostać uznane za prawdę, a co powinno być zwalczane jako dezinformacja? Wbrew pozorom, nie jest to zagadnienie filozoficzne, ale elementarny problem dla demokracji. Są one nawykłe do sporów ukazujących różnorodność faktów i ich interpretacji, co pośrednio legitymizuje obecność kłamstwa i półprawdy jako stanowiska w debacie. Arbitralne działania administracyjne rządów i właścicieli mediów napotkałyby tu zarzuty o ograniczanie wolności słowa.

Przeczytaj również
Coraz więcej czasu spędzamy przed ekranami, czy grozi nam cyfrowe uzależnienie?

Inny problem stanowi złożony kontekst regulacyjny ładu informacyjnego, roli nowoczesnych technologii w tej mierze, czy zapewnienia uczciwej współpracy rzędów (regulatorów zainteresowanych porządkiem), właścicieli mediów (zainteresowanych zyskiem) oraz wytwórców i użytkowników informacji (niechętnych ograniczaniu ich wolności). Sprawy te ma podjąć spodziewana wkrótce regulacja Unii Europejskiej, której założenia zostały ogłoszone w grudniu 2020 r. Kwestie te znajdą zapewne także swoje miejsce w przygotowywanej przez NATO pierwszej sojuszniczej strategii sztucznej inteligencji.

Sztuczna inteligencja zdolna przetwarzać olbrzymią liczbę danych, może być bowiem w coraz szerszym stopniu wykorzystywana do zwalczania dezinformacji w sieci. Właściciele mediów społecznościowych od dłuższego czasu inwestują w algorytmy wykrywające i blokujące informacje generowane przez boty. Coraz szerzej współpracują oni z organizacjami pozarządowymi zajmującymi się zwalczaniem dezinformacji (np. Politfact, FactCheck, czy Snopes) i korzystającymi w tym celu z możliwości AI.

AI przeciwko botom, czyli automatyczny fact-checking

Boty działają jednak zgodnie z tym, jak zostały zaprogramowane i nie mają wyrzutów sumienia z tytułu odpowiedzialności za dezinformację. Ich eliminacja oparta na analizie ruchu w sieci i wzorców szkodliwych zachowań, wspiera wprawdzie walkę z dezinformacją, nie rozwiązując jednak istotnej części problemu jakie tworzą. Jak pokazują bowiem analizy i eksperymenty prowadzone przez specjalistów, boty w równym stopniu powielają prawdę i fałsz. To człowiek jednak odpowiada za większość celowego lub przypadkowego rozprzestrzeniania dezinformacji.

Boty działają jednak zgodnie z tym, jak zostały zaprogramowane i nie mają wyrzutów sumienia z tytułu odpowiedzialności za dezinformację. Ich eliminacja oparta na analizie ruchu w sieci i wzorców szkodliwych zachowań, wspiera wprawdzie walkę z dezinformacją, nie rozwiązując jednak istotnej części problemu jakie tworzą. Jak pokazują bowiem analizy i eksperymenty prowadzone przez specjalistów, boty w równym stopniu powielają prawdę i fałsz.To człowiek jednak odpowiada za większość celowego lub przypadkowego rozprzestrzeniania dezinformacji.

Przeczytaj również
Chmurowa migracja do mainstream

Dlatego niezmiennie olbrzymie znaczenie utrzymuje skuteczna edukacja medialna społeczeństwa, krytyczne myślenie i wyrabianie nawyków fact-checkingu, korzystające z nowoczesnych technologii, ale też oparte na zwracaniu zwykłej uwagi na każde wypaczenie, zniekształcenie, brak synchronizacji czy spójności obrazu lub treści. Na świecie istnieje wiele ogólnodostępnych i szybko rozwijających się fact-checkignowych inicjatyw opartych na współpracy człowieka i maszyn. Przykładem mogą tu służyć firmy takie, jak AdVerif, FullFact, czy Logically, weryfikujące – poprzez swoje aplikacje oparte na algorytmach AI – dane tekstowe, obrazowe i przepływy informacyjne w mediach społecznościowych.

Coraz szerzej są one w stanie filtrować także nie uchodzące wprawdzie za fake-newsy, lecz uznane za toksyczne treści w rodzaju mowy nienawiści, czy obscenicznych komentarzy. Ostatnia z tych firm, stała się szerzej znana za sprawą swej aktywności podczas wyborów prezydenckich w USA w 2020 r. Według źródeł otwartych, jej zaangażowanie podczas kampanii wyborczej w Indiach pozwoliło na weryfikację ponad miliona informacji tekstowych (z których 50 tys. okazało się zawierać fake newsy).

Być może jednak, przy obecnym stanie rozwoju sztucznej inteligencji nie można oczekiwać szybkiego opracowania w pełni skutecznych narzędzi szybkiego zwalczania różnych form internetowej dezinformacji. Warto jednak na niej polegać jako rozwiązaniu wspierającym celowe działanie człowieka postępującego etycznie i zgodnie z wymogami bezpieczeństwa.

Tarcza i miecz

Przyszłość sztucznej inteligencji, w perspektywie dezinformacji trzeba więc widzieć jako narzędzie podwójnegoprzeznaczenia. Nie musi ona stwarzać zagrożenia na żadnym z tradycyjnych poziomów analizy problemów bezpieczeństwa (jednostki, państwa i społeczności globalnej), ani ich przedmiotowych wymiarów. Zależnie od ludzkich decyzji może się bowiem stać mieczem w rękach przeciwników wolności albo tarczą chroniącą społeczeństwa i jednostki przed skutkami ich działań. To porównanie, choć często stosowane w historii przez wojskowych strategów, w dzisiejszym świecie dotyczy jednak niezwykle skomplikowanego pola bitwy. Jej stawką jest przyszły kształt świata, który sztuczna inteligencja może pogorszyć, lub poprawić. Póki co, wybór należy do ludzi.

dr hab. Robert Kupiecki, profesor Uniwersytetu Warszawskiego (Wydział Nauk Politycznych i Studiów Międzynarodowych), b. Ambasador RP w Waszyngtonie i b. wiceminister obrony narodowej
Ambasador Tomasz Chłoń, b. Dyrektor Biura Informacji NATO w Moskwie

Artykuł wyraża wyłącznie osobiste opinie.

Tagi

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *