Sztuczna inteligencjaPolecane tematy

Anthropic kontra Google DeepMind: Czy halucynacje AI naprawdę są problemem?

Dario Amodei, dyrektor generalny Anthropic, uważa, że obecne modele sztucznej inteligencji halucynują – czyli wymyślają różne rzeczy i przedstawiają je tak, jakby były prawdziwe – w mniejszym stopniu niż ludzie. Tę odważną tezę przedstawił podczas briefingu prasowego na Code with Claude, wydarzeniu deweloperskim Anthropic. Innego zdania jest Demis Hassabis, dyrektor generalny Google DeepMind.

Anthropic kontra Google DeepMind: Czy halucynacje AI naprawdę są problemem?

Co więcej, według Dario Amodei, halucynacje AI nie są ograniczeniem na drodze firmy Anthropic do osiągnięcia AGI, czyli systemów AI o inteligencji na poziomie ludzkim, a nawet lepszej.

„Wszystko zależy od tego, jak to mierzyć, ale podejrzewam, że modele AI halucynują prawdopodobnie w mniejszym stopniu niż ludzie. Robią to natomiast w bardziej zaskakujący sposób” – powiedział Dario Amodei portalowi TechCrunch.

CEO Anthropic jest jednym z najbardziej optymistycznych liderów w branży, jeśli chodzi o perspektywę osiągnięcia AGI przez modele AI. Widzi on stały postęp w tym kierunki i uważa, że AGI może zostać osiągnięta już w 2026 roku.

Inni liderzy branży AI uważają jednak, że halucynacje stanowią dużą przeszkodę w osiągnięciu AGI. Demis Hassabis, dyrektor generalny Google DeepMind, powiedział niedawno, że obecne modele sztucznej inteligencji mają zbyt wiele „dziur”, a wiele oczywistych pytań kierowanych do nich wciąż przynosi błędne odpowiedzi.

Przykładowo, na początku tego miesiąca prawnik reprezentujący Anthropic został zmuszony do przeprosin w sądzie po tym, jak użył model Claude’a do stworzenia cytatów w aktach sądowych, a chatbot AI miał halucynacje i pomylił nazwiska oraz tytuły.

Niepokojące halucynowanie

Trudno jest zweryfikować twierdzenie szefa Anthropic, głównie dlatego, że większość testów porównawczych halucynacji porównuje modele AI ze sobą, a nie z ludźmi. Wydaje się, że niektóre techniki – takie jak zapewnienie modelom AI dostępu do wyszukiwania w sieci – pomagają obniżyć wskaźniki halucynacji. Pewne modele sztucznej inteligencji, takie jak GPT-4.5 OpenAI, mają znacznie niższe wskaźniki halucynacji w testach porównawczych, w porównaniu do wczesnych generacji systemów – wskazuje TechCrunch.

Istnieją jednak dowody sugerujące, że halucynacje faktycznie pogarszają się w zaawansowanych modelach rozumowania AI. Przykładowo, modele OpenAI o3 i o4-mini mają wyższe wskaźniki halucynacji niż modele rozumowania poprzedniej generacji, a sami badacze OpenAI nie wiedzą dlaczego tak się dzieje.

Z kolei Apollo Research, instytut bezpieczeństwa który testowała na wczesnym etapie Claude Opus 4 firmy Anthropic, odkrył dużą tendencję tego modelu do oszukiwania ludzi. Zasugerował nawet, aby nie wypuszczać na rynek tej wersji. Anthropic poinformował jednak, że wymyślił pewne środki łagodzące, które wydają się rozwiązywać niepokojące kwestie.

Jak podkreśla TechCrunch, komentarze Dario Amodei sugerują, że Anthropic może uznać model AI za AGI lub równy ludzkiej inteligencji, nawet jeśli ten nadal będzie halucynował.

Tagi

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *