Sztuczna inteligencjaRynek
AI Google myli się miliardy razy rocznie w Overviews
Automatyczne odpowiedzi w wyszukiwarce Google w większości przypadków są trafne, ale skala błędów pozostaje znacząca. Analiza The New York Times i firmy Oumi wskazuje, że około 10% treści generowanych przez AI Overviews zawiera nieścisłości – co przy miliardach zapytań przekłada się na ogromną liczbę błędnych odpowiedzi. Problem nie sprowadza się jednak do pojedynczych „halucynacji”, lecz wynika z samego sposobu, w jaki modele AI budują wiedzę, często bez realnego oparcia w źródłach.

Problem nie jest czysto teoretyczny. The New York Times przywołuje przykład analityka danych Stephena Punwasi, który natknął się na nagłówek sugerujący śmierć Hulka Hogana. Zapytana o to wyszukiwarka kategorycznie zaprzeczyła, że istnieją jakiekolwiek wiarygodne informacje o zgonie wrestlera – mimo, że tuż obok wyświetlała link do artykułu sugerującego coś zupełnie innego. To przykład szerszego zjawiska: braku spójności między odpowiedzią AI a źródłami.
Badanie pokazuje, że nawet gdy odpowiedzi są poprawne, w ponad połowie przypadków (56%) towarzyszące im linki nie potwierdzają treści. W praktyce oznacza to, że system generuje „syntetyczną rzeczywistość”, która tylko częściowo pokrywa się z faktami. W starszym modelu Gemini 2 odsetek błędów sięgał 15%, w nowszym Gemini 3 spadł już do 9% – ale problem nadal pozostaje istotny.
AI nie sprawdza faktów tylko przewiduje
W skrajnych przypadkach dochodzi do jawnych sprzeczności. AI potrafiła np. stwierdzić, że dana organizacja nie istnieje, jednocześnie wskazując link do jej oficjalnej strony. Podobne błędy dotyczyły dat, geografii czy podstawowych faktów historycznych.
Jak tłumaczą eksperci, to nie tyle „błąd systemu”, co konsekwencja jego natury.
„Nasze oczekiwania wobec sztucznej inteligencji są nierealistyczne. Duże modele językowe nie sprawdzają faktów jak człowiek – one przewidują najbardziej prawdopodobną sekwencję słów. AI nie „wie”, czy coś istnieje, tylko generuje odpowiedź, która statystycznie pasuje do kontekstu” – wyjaśnia Marcin Stypuła z Semcore.
To właśnie dlatego system można stosunkowo łatwo zmanipulować. Dziennikarz technologiczny Thomas Germain udowodnił to prostym eksperymentem: opublikował fikcyjną historię o swoim zwycięstwie w zawodach jedzenia hot dogów. Już następnego dnia AI Google przedstawiała go jako eksperta w tej dziedzinie, powielając nieprawdziwe informacje.
„Jeśli proces budowania autorytetu w sieci można tak łatwo zmanipulować za pomocą jednego postu na blogu, to wiarygodność dużych modeli językowych staje pod znakiem zapytania. W świecie, gdzie algorytm bezkrytycznie powiela błędy, granica między rzetelną informacją a dezinformacją staje się niewidoczna. Wprawdzie koncern z Mountain View zabezpiecza się prawnie, dyskretnie informując, że sztuczna inteligencja może się mylić. Jest to jednak słaba pociecha dla użytkownika, który oczekuje precyzji” – uważa Marcin Stypuła.
AI zatrzymuje ruch, a wydawcy tracą
Konsekwencje wykraczają jednak poza samą jakość odpowiedzi. Wprowadzenie AI Overviews uderza również w ekosystem informacji. Według raportu Define Media Group, ruch z wyszukiwarki do serwisów internetowych spadł średnio o 42%. Użytkownicy coraz częściej zatrzymują się na gotowej odpowiedzi i nie przechodzą do źródeł.
Wyjątkiem są treści newsowe – tu ruch wzrósł ponad dwukrotnie. To zapewne efekt ostrożności Google: AI wciąż unika tematów dynamicznych, takich jak konflikty czy rynki finansowe, gdzie koszt błędu jest zbyt wysoki. Wszystko wskazuje jednak na to, że to tylko kwestia czasu, zanim i ten obszar zostanie w pełni zautomatyzowany.








