AnalitykaSztuczna inteligencjaCIOPolecane tematy
Alert „AI 2027” odwołany. Wizja szybkiego osiągnięcia superinteligencji straciła na wiarygodności
Wizja błyskawicznego rozwoju AI, która wstrząsnęła światem, z największym prawdopodobieństwem się nie spełni. Prognoza AI-2027, zakładająca pojawienie się w ciągu dwóch lat AGI została właśnie skorygowana przez jej autorów. Historia „AI 2027” to także przestroga: detaliczne scenariusze, choćby poparte opinią ekspertów i złożonymi metodologiami, powinny opierać się na fundamentach solidnych danych a nie na spekulacjach.

W kwietniu 2025 roku scenariusz „AI 2027” był jednym z najczęściej komentowanych głosów w debacie o przyszłości sztucznej inteligencji. Artykuł ogłoszony przez Daniela Kokotajlo, byłego badacza OpenAI (2022-2024), znanego z wcześniejszych trafnych przewidywań – wraz z grupą ekspertów (Scott Alexander, Thomas Larsen, Eli Lifland, Romeo Dean) przedstawia dramatyczną wizję nadchodzącej rewolucji technologicznej. Prognoza ta była bezprecedensowa ze względu na konkret i radykalny wydźwięk.
Autorzy przewidywali, że do 2027 roku ludzkość osiągnie nie tylko AGI (Artificial General Intelligence), ale wkroczy w erę superinteligencji, systemu AI przewyższającego człowieka we wszystkich zadaniach poznawczych. Wpływ tej transformacji miał przewyższyć znaczenie rewolucji przemysłowej. Odzew był ogromny – setki tysięcy wyświetleń strony https://ai-2027.com/, wystąpień, wywiadów, dostrzeżenie prognozy przez Biały Dom i cytowanie przez wiceprezydenta Vance’a. Było też jednak dużo zarzutów i krytyki pod adresem prognozy (np. https://forum.effectivealtruism.org/posts/KgejNns3ojrvCfFbi/a-deep-critique-of-ai-2027-s-bad-timeline-models).
W końcówce listopada 2025 nastąpił nagły zwrot akcji. Sami autorzy prognozy dokonali zasadniczej korekty, albo może – dobitniej sformułowali istotne zastrzeżenie: “Aby uniknąć nieporozumień: nie wiemy dokładnie, kiedy zostanie zbudowana AGI. W momencie publikacji naszym modelowym (najbardziej prawdopodobnym) rokiem był 2027, a mediana była nieco dłuższa.”
Synteza i ekstrapolacja sądów innych?
Scenariusz „AI 2027” wyróżniał się metodologicznym rygorem. Oparty na ekstrapolacji trendów, grach wojennych i konsultacjach z ponad setką ekspertów z dziedziny AI, przedstawiał szczegółową chronologię technologiczną; założeniem było modelowanie przyszłości w oparciu o losy fikcyjnej firmy OpenBrain, zajmującej się ogólną sztuczną inteligencją, która wyprzedza inne firmy o 3-9 miesięcy. Oto kalendarium roku 2027, który miał być rokiem przełomu, tak jak przewidywali to Koktajlo, Alexander, Larsen, Lifland i Dean:
- marzec 2027: Pojawienie się Superhuman Coder (SC) – systemu AI zdolnego do kodowania lepiej i taniej niż najlepsi ludzcy inżynierowie;
- sierpień 2027: Superhuman AI Researcher (SAR) – AI przewyższającego ludzi w badaniach nad sztuczną inteligencją;
- listopad 2027: Superintelligent AI Researcher (SIAR) – kolejny skok jakościowy;
- grudzień 2027: Artificial Superintelligence (ASI) – system znacznie lepszy od najlepszego człowieka w każdym zadaniu poznawczym.
Kluczowym mechanizmem tej eksplozji miało być samodoskonalenie modeli. OpenBrain miał wykorzystywać kolejne generacje agentów AI do automatyzacji badań nad AI. Agent-1 miał przyspieszać postęp algorytmiczny o 50%, co uruchamiać miało lawinowy efekt coraz szybszego rozwoju.
Scenariusz przewidywał również przełomowe innowacje techniczne, takie jak „neuralese recurrence and memory” (neuralna rekurencja i pamięć) – pozwalające modelom sztucznej inteligencji na dłuższe rozumowanie bez konieczności zapisywania tych myśli w formie tekstu oraz procesu wzmacniania i destylowania (Iterated Distillation and Amplification), który z kolei miałby prowadzić do samodoskonalenia się systemów, dzięki cyklowi wzmacniania jakości i wydajności modeli z następującą potem adaptacją optymalizacji do kolejnych generacji modelu.
Już trzy miesiące po publikacji, w lipcu 2025 roku, pojawiły się pierwsze korekty. Autorzy przesunęli medianę swoich prognoz o 1,5 roku w przyszłość, choć nadal utrzymywali, że osiągnięcie Superhuman Coder w 2027 roku pozostaje realną możliwością.
Jednak pod koniec 2025 roku sytuacja uległa dramatycznej zmianie. Daniel Kokotajlo zaczął publicznie wycofywać się ze swoich przewidywań a 22 listopada opublikowano wspomniane zastrzeżenie.
Gary Marcus kontratakuje, czyli wizja zagłady odwołana
Także krok wstecz został dostrzeżony i odbił się szerokim echem, a dosadnie ujął to m.in. Sriram Krishnam, doradca Białego Domu do spraw AI, współautor dokumentu “AI Action Plan”, ogłoszonego w lipcu tego roku, pisząc: “to frustrujące biorąc pod uwagę ile obaw wywołał projekt”.
Tę uwagę z kolei wychwycił i zacytował Gary Marcus, jeden z najbardziej zagorzałych krytyków hype’u wokół AI, który także nie czekał długo z reakcją. W listopadzie 2025 roku opublikował artykuł zatytułowany „BREAKING: The AI 2027 doomsday scenario has officially been postponed”, w którym ogłosił, że Kokotajlo zgadza się teraz z jego oceną: AGI prawdopodobnie „nie pojawi się w tej dekadzie” (https://garymarcus.substack.com/p/breaking-the-ai-2027-doomsday-scenario).
Dla Marcusa było to potwierdzenie jego wielomiesięcznej krytyki scenariusza „AI 2027”. Już wcześniej określał ten dokument jako „dzieło fikcji, a nie dzieło nauki”, które niepotrzebnie podsyca strach, niepewność i wątpliwości.
Marketing pod płaszczykiem prognozy
Marcus nie szczędzi ostrych słów. Według niego, materiały takie jak „AI 2027” są w istocie narzędziami marketingowymi dla gigantów technologicznych, takich jak OpenAI, Anthropic, Google DeepMind. Celem ich jest przekonanie społeczeństwa o nieuchronności AGI, co z kolei ma umożliwić tym firmom pozyskiwanie od inwestorów ogromnych kwot pieniędzy.
Gary Marcus od początku wskazywał, że logika leżąca u podstaw przewidywania wpływu przekraczającego rewolucję przemysłową była „cienka”. Choć scenariusz był możliwy, znacznie większe jest prawdopodobieństwo innego obrotu wypadków.
Tego typu narracje są ponadto, w jego ocenie, bardzo szkodliwe dla całej gospodarki i polityki amerykańskiej. Przez nie Biały Dom i inne instytucje budowały „całą naszą politykę krajową wokół idei, która nigdy nie była oparta na rzetelnej analizie”. Jak podkreśla, nie chodzi tylko o politykę. Cała gospodarka była przebudowywana „ogromnym kosztem w oparciu o mit”.
Casus AI-2027 daje jego zdaniem szansę nie tylko zastanowić się nad podstawami i założeniami tego mitu, ale też nad mechanizmami nie dopuszczającymi krytyki i głosów przeciwnych. Marcus krytykuje tu dyskurs publiczny, w którym, co podkreśla, dominowały głosy zwolenników scenariusza w popularnych podcastach (All-In, Dwarkesh, Lex Fridman, Hard Fork), podczas gdy odmienne opinie były marginalizowane.
Odwołanie scenariusza „AI 2027” przez jego współtwórcę każe postawić pytanie o sposób, w jaki społeczeństwo podchodzi do prognoz technologicznych. I o to, czy pozwalamy, by pewność siebie i brak podstaw przykrywane pozornym dopracowanie detali zastępowały rzeczywistą wiedzę? I jak bardzo interesy Big Techów kształtują publiczną debatę?
Gary Marcus dowodzi, że sceptycyzm wobec ekstremalnych prognoz to nie luddyzm, ale niezbędna ostrożność intelektualna. Przyszłość AI pozostaje niepewna i być może właśnie ta niepewność powinna kształtować zarówno politykę publiczną, jak i inwestycje prywatne.








