Sztuczna inteligencjaCyberbezpieczeństwoRynekPolecane tematy
AI w erze konfliktów: technologia, która wzmacnia chaos informacyjny
Z Kamilem Smogorzewskim, dyrektorem komunikacji Europejskiego Kolektywu Analitycznego Res Futura, rozmawiamy m.in. o: realnych zagrożeniach związanych z rozwojem sztucznej inteligencji – od dezinformacji i deepfake’ów po manipulację opinią publiczną; tym czy czeka nas „śmieciowy internet”, transformacja rynku pracy i utrata kontroli nad technologią oraz jak AI zmienia krajobraz cyberprzestrzeni.

W jakich kontekstach pojawiają się dziś najczęściej zapytania o AI? Czy dominują kwestie biznesowe, bezpieczeństwa, czy raczej społeczne i etyczne?
Od tygodni królują kwestie bezpieczeństwa. Polacy pytają np. „czy ta grafika/filmik to AI?”, domagając się jednocześnie obowiązkowego znakowania treści generowanych przez AI, co wskazuje na rosnącą niepewność wobec autentyczności treści cyfrowych.
Jeśli spojrzeć natomiast na dyskusje o AI z perspektywy pozytywnej, to w komentarzach i analizach pojawiają się przede wszystkim kwestie biznesowe oraz technologiczne. A więc wykorzystanie AI do budowania przewagi konkurencyjnej, zwiększania produktywności czy rozwijania nowych produktów i usług.
Lubimy zwłaszcza chwalić się sukcesami rodaków w branży AI, a wręcz wierzymy, że technologicznie jesteśmy gotowi dać radę Chinom czy USA. Jest to może naiwne przekonanie, ale pokazuje też nasze duże ambicje.
Czy można to też połączyć z modnym ostatnio tematem suwerenności technologicznej?
W kontekście społecznym suwerenność AI rozumiana jest przede wszystkim przez pryzmat kontroli nad danymi, a nie samodzielnego tworzenia przełomowych technologii. Kluczowe znaczenie ma zwłaszcza miejsce ich przechowywania i przetwarzania. Preferowane są rozwiązania lokalne lub przynajmniej europejskie. Przenoszenie danych poza UE wciąż wzbudza duży niepokój.
Oznacza to, że oczekiwania koncentrują się na „suwerenności operacyjnej”: a więc możliwości korzystania z nowoczesnych narzędzi przy jednoczesnym zachowaniu kontroli nad zasobami. To podejście widać także w dyskusjach o usługach publicznych czy platformach cyfrowych.
Niedawna sprawa mObywatela i Europejskiego Portfela Tożsamości Cyfrowej pokazała wyraźny opór przed przekazywaniem danych nawet do UE. Swoją drogą, wynikało to też z fatalnej komunikacji Ministerstwa Cyfryzacji. Choć trzeba przyznać, że ostatecznie pożar został ugaszony, narracja przejęta, a mObywatel nie dość, że zostaje to jeszcze rozwiązania europejskie będą dostosowywały się do nas, nie odwrotnie. A przynajmniej z takim komunikatem zostali Polacy.
Jakie są obecnie – z perspektywy Res Futury – największe realne zagrożenia związane z rozwojem AI, a które obawy są raczej przeszacowane lub wynikają z medialnych narracji?
Według nas są to kwestie bezpieczeństwa, dezinformacji i szeroko pojętej przestrzeni informacyjnej – zwłaszcza w kontekście niestabilnych wydarzeń geopolitycznych, jak choćby te wokół przewodniczącego Rady Pokoju, który „skutecznie kończy wojnę, zaczynając nową”.
To twarde wyzwania, które widzimy na co dzień w naszych analizach. Do przestrzeni medialnej trafiają realistyczne, lecz całkowicie wygenerowane materiały, np. viralowy filmik o rzekomym wybuchu bomby na lotnisku, z biegnącym chłopakiem przez bramki, który okazał się fejkem.
Wiele publicznych obaw koncentruje się na hipotetycznych, apokaliptycznych scenariuszach. Tymczasem realne zagrożenia mają charakter operacyjny i informacyjny. Rozwój AI jest procesem który będzie postępował niezależnie od debat społecznych – zarówno w sektorze cywilnym, jak i militarnym.
Ekspansja AI jest nieunikniona jak śmierć i podatki. W praktyce oznacza to, że kluczowe staje się zarządzanie skutkami jej wykorzystania, a nie próby zahamowania samej technologii.
Największe realne zagrożenia związane z rozwojem AI to kwestie bezpieczeństwa, dezinformacji i szeroko pojętej przestrzeni informacyjnej – zwłaszcza w kontekście niestabilnych wydarzeń geopolitycznych, jak choćby te wokół przewodniczącego Rady Pokoju, który „skutecznie kończy wojnę, zaczynając nową”
Jak duża jest skala zjawiska fake newsów związanych z geopolityką?
Bardzo duża i ma charakter systemowy. Nasze analizy wskazują, że udział treści generowanych lub wzmacnianych automatycznie w debacie online może sięgać nawet 20-25% dyskusji na dany temat. Obejmuje to zarówno aktywność botów, jak i sieci fałszywych kont w mediach społecznościowych oraz na forach. Jesteśmy w stanie zidentyfikować źródła tych ataków i w obszarze cyberbezpieczeństwa jest to bardzo istotne. Natomiast z perspektywy społecznej fejk to fejk. Kluczowa jest nie sama liczba generowanych treści, ale ich jakość.
Tanie boty dają marny efekt i są – jak choćby komentarze pochodzące z Wietnamu użyte pod pewną, polską kampanią samorządową – łatwe do wykrycia. Gorzej, gdy dezinformacja jest dobrze sformatowana i podchwycona przez liderów opinii, np. polityków czy influencerów, którzy – chciałbym wierzyć, że nieumyślnie – wzmacniają ją działając na niekorzyść prawdy. Wówczas impact jest ogromny.
W jaki sposób monitorujecie takie działania i z jakich narzędzi korzystacie, aby je wykrywać?
Cyberprzestrzeń monitorujemy za pomocą autorskich narzędzi, analizując próbki od kilkuset do nawet kilkuset tysięcy komentarzy z portali społecznościowych, forów i innych serwisów. Badamy liczbę wzmianek, ich charakter, sentyment, autora oraz motywacje.
W zaawansowanych modelach tworzymy nawet „persony” typowych komentujących, które potem weryfikujemy manualnie. Ułatwia to zrozumienie, kto i z jaką motywacją rozpowszechnia określone narracje.
I co ważne, jesteśmy w przededniu wdrożenia narzędzia o nazwie Anubis_FR. Najkrócej mówiąc jest to system wczesnego ostrzegania i obrony narracyjnej, dedykowany podmiotom działającym w warunkach wysokiego ryzyka informacyjnego. W momencie wykrycia incydentu, podmiot dysponuje kompletnym pakietem kontrkomunikatów w pełni skalibrowanych pod kątem platformy, tonu oraz założonej strategii. I to wszystko w dwie godziny.
Chciałbym jednak podkreślić, że rola analityka w tym procesie pozostaje kluczowa, podobnie jak lekarza przy AI-owych analizach medycznych. Jest to hybrydowy ekosystem, gdzie człowiek kontroluje maszynę.
Nasze analizy wskazują, że udział treści generowanych lub wzmacnianych automatycznie w debacie online może sięgać nawet 20-25% dyskusji na dany temat. Obejmuje to zarówno aktywność botów, jak i sieci fałszywych kont w mediach społecznościowych oraz na forach. Jesteśmy w stanie zidentyfikować źródła tych ataków i w obszarze cyberbezpieczeństwa jest to bardzo istotne. Natomiast z perspektywy społecznej fejk to fejk. Kluczowa jest nie sama liczba generowanych treści, ale ich jakość.
W czym konkretnie pomaga Wam AI?
Jedną z kluczowych zalet wykorzystania AI jest możliwość wyjścia poza tzw. bańki informacyjne. Algorytmy są neutralne – ani prawicowe, ani lewicowe. Pozwala to przełamywać te bańki i wchodzić w przestrzenie, do których normalnie byśmy nie zajrzeli, np. ze względów kulturowych czy językowych. Jak choćby na platformę X dla młodzieży czy do śledzenia niszowych wątków kontrowersyjnych.
Analizy te, w zderzeniu z tradycyjnymi sondażami, pozwalają nam śledzić, w jaki sposób treści powstające w internecie przenikają do debaty publicznej, mediów tradycyjnych czy działań instytucji państwowych, a następnie wracają do sieci – często w zmienionej, strasznej formie.
Ten cykl wzajemnego oddziaływania stanowi dziś jeden z kluczowych mechanizmów kształtowania opinii publicznej w erze cyfrowej.
W debacie publicznej często pojawia się teza, że modele LLM w wielu obszarach przewyższają ludzi. Na ile jest to uzasadnione z punktu widzenia analizy danych i rzeczywistych zastosowań?
ChatGPT i inne modele językowe osiągnęły imponujący poziom rozwoju. Jednak wciąż pozostają daleko w tyle za człowiekiem w obszarze inteligencji emocjonalnej. Ich największą siłą jest analiza danych oraz zdolność do szybkiego wyciągania wniosków, w czym potrafią przewyższać większość ludzi. Nie oznacza to jednak, że są uniwersalnie „lepsze”.
Kompetencje zależą od konkretnej dziedziny. Prof. Andrzej Dragan z łatwością pokona AI w zaawansowanej matematyce macierzowej, ale niekoniecznie w praktycznej wiedzy, takiej jak skład mieszanki betonowej, którą z kolei doskonale opanował doświadczony budowlaniec z wieloletnim stażem. Dlatego trafniej jest mówić o podziale kompetencji między ludźmi a AI, niż o bezpośredniej rywalizacji.
Jednocześnie modele LLM mają istotne ograniczenia, szczególnie w sferze emocji. Dobrze rozpoznają i opisują emocje negatywne – takie, jak gniew czy frustracja – ponieważ właśnie one dominują w przestrzeni cyfrowej, a algorytmy mediów społecznościowych są na nie silnie „wytrenowane”, aby przyciągać uwagę użytkowników. Znacznie gorzej radzą sobie natomiast z emocjami pozytywnymi, takimi jak miłość, czułość czy głęboka fascynacja, które są subtelniejsze i trudniejsze do ujęcia w schematach statystycznych.
Ludzie zresztą również silniej reagują na treści negatywne. Wynika to z uwarunkowań psychologicznych i ewolucyjnych. Widać to zarówno w komentarzach internetowych, jak i w codziennych interakcjach społecznych.
Mechanizmy wpływu na opinię publiczną – propaganda, manipulacja emocjonalna czy farmy botów, jak w przypadku Cambridge Analytica z 2016 roku – funkcjonowały na długo przed erą generatywnej AI. Schemat się nie zmienia. Nowe technologie tylko zwiększają ich efektywność, szybkość działania i zasięg w formatowaniu społeczeństwa. Kto w 2016 roku wyobrażał sobie Konfederację Korony Polskiej z 8% poparciem? To niestety efekt wieloletnich procesów propagandowych i formowania konkretnego typu narracji.
Czy obawy o masową utratę pracy przez automatyzację są dziś uzasadnione, czy raczej mamy do czynienia z transformacją kompetencji niż ich eliminacją?
Lęk przed utratą pracy to druga, po manipulacji i dezinformacji, najczęstsza obawa pojawiająca się w przestrzeni cyfrowej – 18% komentarzy mówi tylko o tym. Z kolei niemal 43% respondentów w badaniu opinii publicznej przeprowadzonym przez IBRiS deklaruje ten niepokój. Dla niektórych zawodów jest on uzasadniony. Automatyzacja najsilniej oddziałuje na zawody o powtarzalnym charakterze i wysokim udziale pracy rutynowej, podczas gdy w wielu innych sektorach prowadzi do zmiany zakresu obowiązków, a nie całkowitej eliminacji stanowisk.
Jak pokazuje historia, podobne obawy towarzyszyły każdej dużej rewolucji technologicznej, a ludzie elastycznie się do niej dostosowywali. Kluczowym czynnikiem łagodzącym skutki transformacji będzie edukacja – zarówno cyfrowa, jak i w zakresie cyberbezpieczeństwa.
AI zabierze nudne zadania – np. w rolnictwie drony już spryskują plony na polach – ale wymusi też adaptację, tworząc nowe role. Z perspektywy długoterminowej bardziej prawdopodobny jest scenariusz głębokiej transformacji rynku pracy niż jego masowej redukcji.
Czego jeszcze obawiamy się poza manipulacją i utratą pracy?
Istotną obawą jest degradacja jakości internetu – przekonanie, że rozwój AI doprowadzi do lawinowego wzrostu treści o niskiej wartości merytorycznej – to nawet 15% wszystkich wypowiedzi w internecie. Mam na myśli „śmieciowy internet” zdominowany przez boty, w którym odróżnienie wartościowych informacji od szumu stanie się coraz trudniejsze.
Bardzo silnym wątkiem jest również obawa o bezpieczeństwo dzieci w sieci. Obejmuje ona zarówno pedofilię, jak i wpływ treści cyfrowych – np. generowanych na TikToku – na rozwój psychiczny młodych użytkowników.
Kolejna obawa związana jest z brakiem regulacji – mimo niechęci do udziału państwa w życiu prywatnym, Polacy chcą zasad dla AI. Przykładowo, popierają weryfikację wieku na social mediach (poniżej 15 lat) i pewne elementy AI Act – choć dokument ten budzi kontrowersje.
Ale nie jest to wyłącznie strach. Badanie z 2025 roku pokazuje też fascynację postępem związanym z AI. Z jednej strony więc boimy się tej technologii, a z drugiej chcemy „umieć w AI”, czując niedosyt wiedzy. I to jest nadzieja na edukację cyfrową, która z czasem rozwieje te obawy.
Badaliście może, jak Polacy oceniają kompetencje AI?
Istnieją badania sondażowe, które wskazują na wyraźną lukę kompetencyjną. We wspomnianym wcześniej badaniu IBRiS 57% badanych deklaruje, że posiada jedynie podstawową wiedzę na temat AI, a 31% przyznaje, że wprawdzie o niej słyszało, lecz nie rozumie jej działania. Tylko ok. 9% respondentów ocenia swoją wiedzę jako zaawansowaną. Natomiast marginalna grupa nie miała wcześniej styczności z tym pojęciem.
Jednocześnie ponad 40% ankietowanych uważa, że rozwój AI postępuje zbyt szybko i społeczeństwo nie nadąża za zmianami. To może wzmacniać poczucie niepewności, ale równocześnie wskazuje na silną potrzebę edukacji i podnoszenia kompetencji cyfrowych.
Systemy ograniczające dezinformację musiałyby być rozwijane w sposób systemowy i konsekwentny. Na to jest już za późno o kilkanaście lat. AI do walki z dezinformacją musiałaby być nieprofitowa, oddolna, a to mało realne. Obecnie to hyperscalerzy dyktują warunki.
Jak oceniacie wykorzystanie AI w obszarze diagnoz medycznych? Czy większym ryzykiem jest dziś niedoskonałość modeli, czy raczej nadmierne zaufanie do ich wyników?
Problemem staje się raczej nadmierne zaufanie ludzi do skróconych, automatycznych odpowiedzi niż sama niedoskonałość modeli. Użytkownicy, którym już na etapie wyszukiwarki, pojawia się podsumowanie generowane przez algorytm, rzadko je weryfikują ze źródłami.
Poza tym – z jednej strony akceptowane jest wykorzystanie AI do interpretacji wyników badań czy analizy obrazów medycznych, a z drugiej istnieje wyraźna granica zaufania. Decyzje bezpośrednio wpływające na nasze życie i zdrowie powinny należeć jednak do lekarza.
Co istotne, podejście to wynika z potrzeby odpowiedzialności i kontaktu z człowiekiem. Inaczej mówiąc nie ufamy „czarnej skrzynce” bez ludzkiego glejtu.
Jakie są najczęstsze mity dotyczące sztucznej inteligencji, z którymi spotykacie się w pracy analitycznej?
W przestrzeni publicznej funkcjonuje szerokie spektrum przekonań na temat AI. Z perspektywy analitycznej warto więc oddzielić wielkie teorie spiskowe od mitów, które realnie wpływają na zachowania społeczne. Te pierwsze mówiące np., że ludzkość żyje w symulacji lub że AI potajemnie kontroluje świat – są medialnie atrakcyjne, ale mają ograniczone znaczenie. Większość społeczeństwa nie traktuje ich poważnie.
Istotniejsze są mity dotyczące codziennego życia. Należy do nich wspomniane już przez nas przekonanie, że AI odbierze ludziom pracę, że autonomiczne pojazdy będą bardziej niebezpieczne niż te sterowane przez człowieka, czy że AI podejmuje decyzje bezbłędnie.
Z punktu widzenia analityki kluczowe jest to, że mity nie znikają całkowicie, ale zmienia się ich natężenie. Gdy przestają być intensywnie podtrzymywane w debacie społecznej, stopniowo tracą znaczenie. Dlatego większą wagę przywiązuje się do tych, które wpływają na decyzje konsumenckie czy polityczne, a nie do tych najbardziej spektakularnych, lecz marginalnych.
W jaki sposób AI zmienia krajobraz dezinformacji i manipulacji? Czy mamy do czynienia z jakościową zmianą zagrożeń, czy raczej skalowaniem znanych mechanizmów?
Mechanizmy wpływu na opinię publiczną – propaganda, manipulacja emocjonalna czy farmy botów, jak w przypadku Cambridge Analytica z 2016 roku – funkcjonowały na długo przed erą generatywnej AI. Schemat się nie zmienia. Nowe technologie tylko zwiększają ich efektywność, szybkość działania i zasięg w formatowaniu społeczeństwa. Kto w 2016 roku wyobrażał sobie Konfederację Korony Polskiej z 8% poparciem? To niestety efekt wieloletnich procesów propagandowych i formowania konkretnego typu narracji.
Równolegle AI dodaje nam nowe narzędzia, jak np. deepfake wideo, które znacząco podnoszą wiarygodność fałszywych treści. Weźmy słynny filmik, na którym Will Smith je makaron – początkowo był karykaturalny, dziś prezentuje już hollywoodzką jakość. Możliwości wpływu na umysły nie zmieniły się od ery internetu – każda propaganda wie, że negatywne emocje klikają najlepiej. A nowe technologie tylko to przyspieszają.
Czyli mamy założyć, że będzie już tylko gorzej? A może AI zostanie wykorzystana do tego, aby takie rzeczy ograniczać?
Teoretycznie AI może pełnić podwójną rolę: jako narzędzia generowania manipulacji, jak i systemu jej wykrywania oraz neutralizowania. W praktyce skuteczność tej drugiej funkcji zależy jednak od modeli biznesowych, interesów czy globalnej architektury technologicznej.
Systemy ograniczające dezinformację musiałyby być rozwijane w sposób systemowy i konsekwentny. Na to jest już za późno o kilkanaście lat. AI do walki z dezinformacją musiałaby być nieprofitowa, oddolna, a to mało realne. Obecnie to hyperscalerzy dyktują warunki.
Również regulacje publiczne napotykają ograniczenia, ponieważ tempo rozwoju technologii wyprzedza proces legislacyjny. Internet nie rozwiązał nierówności wiedzy, tylko je pogłębił. Musimy więc szukać odpowiedzi na ludzkie problemy gdzie indziej.







