BiznesPolecane tematy
O szkodliwej panice i prawdziwych zagrożeniach sztucznej inteligencji
RAPORT 4xAI
Autonomiczny dron wojskowy zabił swojego operatora. AI uzyskuje samoświadomość. Połowa ludzkości będzie bezrobotna. Żadne z tych zdań nie jest prawdą. Katastroficzna narracja snuta wokół sztucznej inteligencji odwraca uwagę od prawdziwych problemów i interesów właścicieli technologii, umożliwiając zakucie nas w kajdany nowej zależności.
Zacznijmy zatem od sprostowania. Autonomiczny dron zabił operatora… ale tylko w hipotetycznym scenariuszu w prezentacji amerykańskiego pułkownika. AI nie może uzyskać świadomości, bo jest tylko (aż?) „stochastyczną papugą”, aby użyć frazy badaczki AI Emily Bender. Co nie wyklucza, że papuguje niezwykle efektywnie, mimo braku rozumienia używanych słów. Co najmniej od czasu bota ELIZA z 1972 r. ludzie antropomorfizują maszynę, kierując się intuicją przystosowaną do życia w naturze, zamiast wiedzą o działaniu maszyny.
Połowa ludzkości będzie bezrobotna – twierdzili naukowcy z Oksfordu w artykule, który nonszalancko przyjmował, że każdy zawód o pewnym poziomie rutynowości manualnej zniknie. Stanie się tak niezależnie od ekspozycji pracownika na kontakt z żywymi osobami, uwarunkowania kulturowe czy koszty wdrożenia technologii. Pierwsi mieli być kierowcy i magazynierzy, a czas dziś pokazał, że to nie „niebieskie” a „białe” kołnierzyki są automatyzowane przez generatywną AI.
Badania nad rewolucją przemysłową i automatyzacją epoki powojennej dość jasno pokazują, że bezrobocie jest fenomenem nierównego podziału dochodów, a nie produktywności. Amerykański Pas Rdzy kwitł w czasie automatyzacji przemysłu samochodowego pod nadzorem związków zawodowych. Zwiądł, gdy przemysł uciekł do tanich, chińskich fabryk, a zyski przejęło Wall Street.
Egzystencjalne kłamstwo
A jednak słuchając technologicznych liderów opinii można ulec wrażeniu, że jesteśmy o krok od Osobliwości (Singularity) – momentu, w którym AI uzyskuje autonomię i może wzmacniać sama siebie, osiągając niezrównane i niezrozumiałe dla ludzi tempo rozwoju. W tej narracji AI staje się bytem osobnym od ludzi inwestujących w nią, utrzymujących serwery, trenujących i wdrażających w działalności organizacyjnej. Uzyskuje własną, maszynową świadomość istnienia i cele, które może realizować ponad naszymi głowami.
Dążenie do AGI (Generalnej Sztucznej Inteligencji), przekraczającej zdolności człowieka w każdej dziedzinie, jest jednocześnie przedstawiane jako osiągalny cel biznesowy i jako egzystencjalne zagrożenie, wobec którego demagodzy jak Eliezer Yudkowsky usprawiedliwiają prewencyjne ataki nuklearne na inne kraje. Elon Musk jedną ręką podpisuje listy o zatrzymaniu prac nad AI, drugą zaś rekrutuje do swoich korporacji setki talentów uczenia maszynowego.
Granie w superlidze w kapitalizmie kognitywnym
Jak rozumieć to specyficzne dwójmyślenie? Trzeba rozróżnić ich cele i porządki czasowe. Przerażające opowieści o epickich proporcjach pozwalają poczuć się protagonistą dziejów ludzkości, rycerzem na białym koniu, wizjonerem czy tytanem przemysłu. Chwytają uwagę i pozwalają Samom Altmanom tego świata stać obok Ursul von der Leyen niczym suwereni. Grają na potrzebie sensu życia, dając nową opowieść ludziom, którzy jeszcze wczoraj wierzyli w Metawersum, kryptowaluty, Web3 albo podbój Marsa.
Jeśli modele GPT (General Pretrained Transformer) staną się GPT (General Purpose Technology), technologią powszechnego użytku, będzie to oznaczało, że gospodarki, administracje rządowe i społeczeństwa będą uzależnione od paru dostawców AI.
Takie są też wymogi grania w superlidze w kapitalizmie kognitywnym, wysoce sfinansjalizowanym i symbolicznym systemie gospodarczym, w którym kapitał przepływa za najlepszą opowieścią do aktywów-symboli (słowo „bańka” to zbytnie uproszczenie). Bo czy jest lepsza reklama np. akcji Facebooka niż oficjalne oskarżenie Marka Zuckerberga o sterowanie wyborami prezydenckimi światowego hegemona? Czy da się sprzedawać produkty OpenAI lepiej niż przekonując, że są o krok od pobicia całej ludzkości?
Kolejne „oczy i uszy” AI
Przyjmując choćby na chwilę, że alarmistyczny ton techno-oligarchów jest uzasadniony, zdecydowanie najmniej rozsądnym działaniem byłoby „wypuszczanie” wytrenowanych modeli w świat – połączenie ich z otwartym internetem, uruchomienie interfejsów programistycznych API łączących AI z zewnętrznymi aplikacjami, platformami, systemami przemysłu czy administracji.
Takie połączenie przecież umożliwiłoby AI pozyskiwanie nowych danych do rozwoju i jednocześnie algorytmiczne sterowanie rosnącą liczbą procesów cywilizacji człowieka. A jednak to właśnie to połączenie jest najbardziej atrakcyjnym produktem firmy OpenAI, która udostępnia swój model GPT do wyszukiwarki Bing, a przez API pozwala niezależnym deweloperom budować kolejne „oczy i uszy” AI.
To nie brak konsekwencji, ale prosty dowód na fałsz sprzedawanej nam opowieści. Kiedy słuchamy egzystencjalnych kłamstw techno-oligarchów, oni są zajęci biznesem wprost pędzącym w kierunku przed którym nas przestrzegają.
Algorytmiczne zarządzanie wyrządza już szkody
Jednocześnie katastroficzne opowieści odciągają od prawdziwych wyzwań AI, z którymi mierzymy się już od wielu lat wdrażania tych narzędzi na masową skalę. Chociaż w zbiorowej świadomości to ChatGPT – czy pół roku wcześniej DallE – pokazały generatywną moc AI, to przecież od ponad dekady codziennie stykamy się z algorytmami wyszukiwania czy rekomendującymi treści i reklamy w mediach społecznościowych. Przykładowo, w 2021 r. Meta pokazała platformę sprzętową ZionEX do trenowania AI o wielkości nawet 12 bln parametrów, czyli tysiące razy więcej niż GPT-3,5 stosowany w ChatGPT. Można śmiało założyć, że tej wielkości modele są w powszechnym użyciu na Facebooku czy Instragramie.
Słuchając technologicznych liderów opinii można ulec wrażeniu, że jesteśmy o krok do Osobliwości – momentu, w którym AI uzyskuje autonomię i może wzmacniać sama siebie, osiągając niezrównane i niezrozumiałe dla ludzi tempo rozwoju. W tej narracji AI staje się bytem osobnym od inwestujących w nią ludzi.
Jednak nie przychodzi nam do głowy (i dobrze), że serwery mediów społecznościowych należy zbombardować głowicami nuklearnymi, ani że YouTube uzyskuje samoświadomość i będzie sterować populacją Ziemi. Natomiast dzięki wysiłkom badaczy, aktywistów i sygnalistek jak np. Frances Haugen czy Chris Wylie wiemy, że systemy rekomendacyjne mają uzależniać i robią to dosłownie po trupach – umożliwiając polaryzację, powstawanie zatrutych szkodliwymi informacjami baniek, niszcząc samoocenę młodych ludzi i prowadząc do chorób psychicznych. Te „zanieczyszczenia” infosfery są pochodną toksycznego modelu biznesowego, który wynika z kapitalistycznej wolnej amerykanki w przestrzeni cyfrowej.
Z systemami AI – czy szerzej, algorytmicznym zarządzaniem – mamy już do czynienia w pracy, ale problemem nie jest bezrobocie. Magazynierzy Amazona nie zostali zwolnieni, ale są inwigilowani na każdym kroku, a podnoszone algorytmicznie tempo pracy prowadzi do wycieńczenia i nagłych śmierci z przepracowania. Informatycy, pracownicy call center, sektora usług wspólnych coraz częściej mierzą się z automatycznym śledzeniem stacji roboczych (w tym prywatnych), skanowaniem efektywności pracy. Kierowcy aplikacji takich jak Uber, Bolt, Wolt, Pyszne.pl nie są zastępowani przez maszyny, ale wszystkie warunki ich pracy, od przerwy po wynagrodzenie, wyznaczają maszyny.
Stawka większa niż AI
We wszystkich tych kontekstach realny spór nie przebiega według fałszywych linii kreślonych przez techno-oligarchów, ale wokół konkretnych potrzeb ludzi i naszego poczucia wolności i godności. Kto może wykorzystywać dane do trenowania AI? Czy artyści i twórcy mają prawo do wynagrodzenia za użycie ich dzieł? Czy każde AI może być otwierane, testowane pod kątem bezpieczeństwa? Czyją własnością będą modele? Kiedy możemy odmówić algorytmicznej inwigilacji – na ulicy, w pracy?
Wobec prawdziwych problemów z AI bajki o samoświadomości nagle schodzą na drugi plan, a ujawniają się konflikty interesów. To wyrzucanie zespołów odpowiedzialnej/ etycznej AI, jakie ma na koncie Google czy Microsoft. To zmasowany lobbing przeciwko zakazowi biometrycznej inwigilacji w przestrzeni publicznej, który ostatecznie udało się zawrzeć w przełomowej regulacji AI Act. Badacze z Uniwersytetu Stanforda dowodzą, że większość firm jest daleka od standardów jakości, jakich oczekujemy w AI Act. Korporacje nie ujawniają pochodzenia danych i czy miały do nich jakiekolwiek prawa, nie informują o metodzie trenowania modelu, zużyciu energii, ryzykach użycia.
Dążenie do Generalnej Sztucznej Inteligencji, przekraczającej zdolności człowieka w każdej dziedzinie, jest jednocześnie przedstawiane jako osiągalny cel biznesowy i jako egzystencjalne zagrożenie.
Bardziej niż bunt Skynet realna jest przyszłość, w której tylko kilka światowych ośrodków badawczo-rozwojowych dysponuje zasobami – kadrami, sprzętem, danymi, środkami finansowymi – aby stworzyć i utrzymywać uniwersalne modele językowe. Jeśli modele GPT (General Pretrained Transformer) staną się GPT (General Purpose Technology), czyli technologią powszechnego użytku, będzie to oznaczało, że gospodarki, administracje rządowe i społeczeństwa całego świata będą uzależnione od paru dostawców AI-jako-platformy.
Czy powstaną inne modele niż giganty z USA i Chin, które będą napędzać cała resztę, rzekomo „niepodległych” krajów? Jeśli nie, kolejny krok światowego kapitalizmu w kierunku technologicznego imperium zostanie dokonany. Wszyscy będziemy płacić trybut hegemonowi za dostęp do technologii, które wytworzył z naszych własnych danych.
Oczywiście to nie jest w żadnym sensie nieuchronny scenariusz. Dysponujemy co najmniej kilkoma różnymi ścieżkami i narzędziami, aby nie dopuścić do obumarcia demokracji wobec potęgi algorytmicznego zarządzania. Ponieważ jednak ten tekst o tym nie traktuje, zaznaczę jedynie, że potrzebujemy wszystkich z tych działań.
Potrzebujemy więcej eksperymentów z otwartymi modelami AI, bo nieprzypadkowo najbliżej „złotego standardu” AI Act jest otwarty model BLOOM. Potrzebujemy więcej „pirackiego” uspołeczniania modeli wielkich korporacji. Więcej instytucji jak inspekcje algorytmiczne, spółdzielnie i wspólnice danych oraz ośrodki badawcze realizujące misję społeczną. Więcej regulacji i więcej karania za naruszenia praw, które my ustanowiliśmy w naszej demokracji. Więcej odwagi, aby wstać od biurka i nigdy więcej nie budować niczego, co szkodzi normalnym ludziom.
Za AI, ale przeciw „władcom” AI
Ideologiczne trzymanie się spekulacji o „długim okresie” to odwracanie uwagi od znanych i zbadanych problemów występujących już dziś, co zresztą niegdyś dobrze skwitował ekonomista John Maynard Keynes: „w długim okresie wszyscy jesteśmy martwi”. Przerażeni katastrofą tracimy zdolność do podejmowania racjonalnych decyzji. Ba, oddajemy podmiotowość fałszywym alarmistom, którzy są gotowi dla naszego dobra, ponad porządkiem demokratycznym, nadzorować rozwój AI!
Chociaż w zbiorowej świadomości to ChatGPT – czy pół roku wcześniej DallE – pokazały generatywną moc AI, to przecież od ponad dekady codziennie stykamy się z algorytmami wyszukiwania czy rekomendującymi treści i reklamy w mediach społecznościowych.
Techno-determinizm głoszący, że wszelka próba ucywilizowania rozwoju AI jest skazana na porażkę – bo Chiny, bo „prawo nie nadąża za technologią”, bo bazyliszek Roko – nie tylko ignoruje historię poprzednich rewolucji przemysłowych, ale wprost odbiera nam podmiotowość, zostawiając wolną rękę techno-oligarchom.
Niejednokrotnie w odniesieniu do technologii, przykładowo w ujęciu prof. Andrzeja Zybertowicza, pojawia się metafora władcy (pana) i sługi. Konserwatywni krytycy technologii podnoszą, że pozwalamy narzędziom, aby wyznaczały nam jak żyjemy, uzależniają nas. Jednak to nie narzędzia staja się władcami, ale techno-oligarchowie, którzy są właścicielami modeli i używają ich do algorytmicznego sterowania nami – w pracy, w mediach społecznościowych, lub umożliwiając generatywne użycie za pobieranie renty ekonomicznej.
Skutki zależą od tego w czyich rękach znajdzie się AI
Obietnica automatyzacji rutynowych prac, zwiększenia efektywności procesów gospodarczych, rozwoju ludzkiej kreatywności powinny budzić w nas niespotykany od dekad optymizm. Jednak mamy wrażenie przyspieszenia, które wgniata w fotel i rodzi ryzyko. Dlatego nie możemy zapomnieć, że AI nie jest podmiotem, ale narzędziem i skutki jej użycia zależą od tego w czyich rękach się znajdzie. Jeśli pozwolimy na dalszą kradzież danych, prywatyzację modeli, naruszenia naszych swobód to AI stanie się narzędziem inwigilacji i opresji. Być przeciwko „władcom” AI oznacza „być za AI uczciwą, transparentną, otwartą i działającą w interesie wszystkich”.
Jan Oleszczuk-Zygmuntowski, Ekonomista i przedsiębiorca społeczny. Pracownik naukowy Akademii Leona Koźmińskiego. Współprzewodniczący Polskiej Sieci Ekonomii i dyrektor zarządzający CoopTech Hub, pierwszego w Polsce centrum technologii spółdzielczych.