Sztuczna inteligencja
Halucynacje w AI – badacze OpenAI tłumaczą, skąd się biorą i jak je ograniczać
Specjaliści OpenAI przyjrzeli się przyczynom halucynacji w dużych modelach językowych, takich jak GPT-5 czy ChatGPT, a także temu, jak można zmniejszyć ich skalę. W najnowszym artykule badawczym zdefiniowali halucynacje jako „prawdopodobne, ale fałszywe stwierdzenia generowane przez modele językowe” i przyznali, że zjawisko to jest „fundamentalnym wyzwaniem, którego nigdy nie uda się całkowicie wyeliminować”.

Badacze tłumaczą, że problem wynika z procesu treningowego, w którym modele uczą się przewidywania kolejnych słów bez etykiet „prawda” czy „fałsz”. O ile błędy w pisowni znikają wraz ze skalą, o tyle rzadkie fakty, takie jak daty urodzin czy tytuły prac naukowych, są trudne do odtworzenia na podstawie samych wzorców językowych.
OpenAI zwraca jednak uwagę, że równie istotnym źródłem halucynacji są obecne metody oceny modeli. Skupiają się one na samych poprawnych odpowiedziach, co „zachęca modele do zgadywania, zamiast do przyznania, że czegoś nie wiedzą”. Naukowcy proponują więc system testów podobny do egzaminów, w których błędne odpowiedzi są mocniej punktowo karane, a częściowe punkty przyznaje się za poprawne wyrażanie niepewności.
„Jeśli główne tablice wyników będą nadal nagradzać trafne odpowiedzi, modele będą się uczyć zgadywać” – ostrzegają autorzy badania. Ich zdaniem konieczna jest zmiana powszechnie stosowanych benchmarków, aby promować nie tylko poprawność, ale też ostrożność i przejrzystość w odpowiedziach.
Źródło: TechCrunch







