Jak przekonujemy się ostatnio – nieustannie i boleśnie – świat biologiczny, polityczny i gospodarczy jest globalnym, „ciasno związanym” systemem złożonym, z wysoką wrażliwością na warunki początkowe (tzw. efekt motyla). Jest on więc ogromnie trudny do prognozowania i regulacji. Wymaga nowych, znacznie doskonalszych narzędzi analitycznych i logistycznych.
O napisanie felietonów w jubileuszowym, 100 numerze ITwiz poprosiliśmy osoby odpowiedzialne za IT i cyfrową transformację w największych firmach i organizacjach w Polsce, a także przedstawicieli nauki. Artykuły poświęcone są temu, co ich obecnie inspiruje.Wielką, uzasadnioną nadzieją są tu oczywiście technologie IT. Ale w tym celu w sektorze IT musi się dokonać „przejście fazowe”, czyli jakościowy skok technologiczny. Dotyczy to infrastruktury: powszechne szybsze i efektywniejsze sieci, pamięci masowe, komputery kwantowe i biologiczne, zaawansowane rozwiązania chmurowe itd., ale także programowania: protokoły transmisji, szyfrowanie (m.in. kwantowe), metody heurystyczne, systemy eksperckie, „inteligentne” algorytmy itd.
Najbardziej obiecujące są tu dziś zastosowania tzw. sztucznej inteligencji. Ale stworzona przez nas złożoność będzie wymagała bardzo dużo, bardzo innej inteligencji. Czy jesteśmy w stanie ją stworzyć? Co by to miało oznaczać? Czy, jako zagrożona cywilizacja, mamy inne wyjście?
Jak na razie, wspomaganie lub nawet zastępowanie ludzkiego rozumu w specjalizowanych sytuacjach idzie nam nieźle. Komputery wygrywają w szachy i pokera, a AlfaGo Zero samo nauczyło się grać w arcytrudną grę Go. Algorytmy sterują samolotami, zarządzają sieciami energetycznymi, diagnozują choroby, komponują niedokończone części symfonii, malują obrazy, pomagają fałdować białka w poszukiwaniu nowych leków i wygrywać wybory prezydenckie.
Takie projekty pozwalają nam myśleć o tym, gdzie technologia zabierze nas kiedyś w świecie kreatywności i projektowania. Rodzą nieśmiałe – na razie – pytania o możliwość zmierzchu monopolu człowieka na inteligencję.
Problem w tym, że w momencie, kiedy wreszcie potrafimy sprawnie organizować wiele aspektów naszego funkcjonowania, zaczynamy beztrosko oddawać tę kontrolę sztucznym agentom, które (jednak) nie myślą, również w obszarach, gdzie, na razie, jest na to zdecydowanie za wcześnie. Wygląda to na niebezpieczne przełączanie cywilizacji na autopilota.
Inteligencja sztuczna, czyli jaka?
Powszechne używanie terminu „sztuczna inteligencja” jest dzisiaj wciąż niebezpiecznym nadużyciem. Ponieważ, jeśli jej produkty nazywamy „inteligentnymi” (nawet, jeśli przyznajemy, że są „sztuczne”), to bez specjalnych oporów przekazujemy im uprawnienia do decydowania. Szczególnie, że w ogromnej liczbie różnorodnych sytuacji rzeczywiście dają one ogromne korzyści.
Problem w tym, że w momencie, kiedy wreszcie potrafimy sprawnie organizować wiele aspektów naszego funkcjonowania, zaczynamy beztrosko oddawać tę kontrolę sztucznym agentom, które (jednak) nie myślą, również w obszarach, gdzie, na razie, jest na to zdecydowanie za wcześnie. Wygląda to na niebezpieczne przełączanie cywilizacji na autopilota.
W tym sensie, przesadnie hałaśliwe dziś zjawisko metaverse jest moim zdaniem nieporównanie mniej istotne, niż dziejący się cicho, ale konsekwentnie proces powstawania rozległej sieci „ambient (otaczającej) intelligence”, gdzie niezliczone, niewidoczne czujniki, aplikacje i urządzenia rozwiązują nasze problemy, często nawet bez naszej świadomości.
Przestrzegał przed tym Norbert Wiener już w 1950 roku: pisząc, że wkrótce ludzie zaczną przekazywać kontrolę nad społeczeństwem na rzecz cybernetycznej sztucznej inteligencji, co dla gatunku ludzkiego skończy się – jego zdaniem – źle. Stąd przecież np. biorą się coraz liczniejsze ostatnio niepokoje o „etyczność” sztucznej inteligencji po wykryciu wielu dowodów na trudne do wyjaśnienia przypadki jej „tendencyjności”.
Przesadnie hałaśliwe dziś zjawisko metaverse jest moim zdaniem nieporównanie mniej istotne, niż dziejący się cicho, ale konsekwentnie proces powstawania rozległej sieci „ambient (otaczającej) intelligence”, gdzie niezliczone, niewidoczne czujniki, aplikacje i urządzenia rozwiązują nasze problemy, często nawet bez naszej świadomości.
Chciwe, kruche, nieprzezroczyste i płytkie Deep Learning
Sieci neuronowe, to mistrzowie rozpoznawania rozmytych wzorców w wielkich zbiorach różnorodnych danych. Ale AI, w aktualnych przejawach, jest w jakimś sensie pasożytem inteligencji ludzkiej, bezmyślnie wchłaniając to, co zostało wyprodukowane przez ludzkich twórców i wydobywając wszystkie wzorce, jakie da się w tym znaleźć, w tym nasze najbardziej złośliwe nawyki.
Nawet zaawansowane, głębokie uczenie maszynowe (Deep Learning) jest chciwe, kruche, nieprzezroczyste i płytkie (Marcus). Chciwe, bo potrzebuje wielkich zbiorów danych treningowych. Kruche, bo nie radzi sobie z nieznanym kontekstem. Nieprzezroczyste, bo jest „czarną skrzynką” i jego wyniki rodzą pytania o wiarygodność i tendencyjność (bias). Płytkie, bo nie rozumie zewnętrznego świata i ludzkiej psychologii.
Po uruchomieniu Deep Learning na jakimś rozległym zbiorze danych tracimy zatem kontrolę nad procesem, który sam dokonuje optymalizacji, a następnie podaje (jakiś) wynik. Dzisiejsze uczenie maszynowe oparte jest prawie w całości na operacjach statystycznych, a zatem nie jest w stanie stworzyć silnej AI. Nie daje możliwości wykrycia zależności przyczynowych. Wykrywane korelacje mogą bowiem być pozorne. Jest to więc, ciągle jeszcze, klasyczny przykład czarnego pudełka. Co rodzi ważkie pytanie praktyczne: któremu czarnemu pudełku wierzyć?!
Dzisiejsze uczenie maszynowe oparte jest prawie w całości na operacjach statystycznych, a zatem nie jest w stanie stworzyć silnej AI. Nie daje możliwości wykrycia zależności przyczynowych. Wykrywane korelacje mogą bowiem być pozorne. Jest to więc, ciągle jeszcze, klasyczny przykład czarnego pudełka. Co rodzi ważkie pytanie praktyczne: któremu czarnemu pudełku wierzyć?!
Będziemy potrzebowali inteligencji równej, lub lepszej, niż ludzka
Do rozwiązywania problemów złożonych, globalnych systemów niezbędna będzie więc znacznie lepsza technologia, niż dzisiejsze sieci neuronowe. Być może dochodzimy do granic możliwości ludzkiego hardware’u. Będziemy potrzebowali inteligencji równej, lub lepszej, niż ludzka. Z pominięciem ograniczeń tejże i równoczesnym wykorzystaniem przewag tej „sztucznej”.
Na razie ludzki mózg ma jeszcze parę przewag: trójwymiarowość, zdolność do samoreperacji i samoorganizacji, wielość połączeń, integracja sensorów (oczy, słuch, węch itp.) i aktuatorów (dłonie, nogi, usta itp.). Natomiast technologie IT już dzisiaj przekraczają ludzkie możliwości pod względem: prędkości (np. przetwarzania wielkich baz danych), rozmiaru (neuron, ok. 10 mikronów vs. elektroniczna „molekuła” – 10 000 razy mniejsza, co przyspiesza połączenia), stabilności – analogowa vs. cyfrowa, czas ciągłej pracy, modularność (otwarta architektura) i tzw. gotowość kwantowa, czyli możliwość zastosowania nowych reguł operacyjnych i nowych poziomów inteligencji.
Mózg ludzki jest też ciągle nieporównanie sprawniejszy energetycznie. Program IBM Watson, słynny zwycięzca teleturnieju Jeopardy! zużywał 85 000 watów; ludzki potrzebuje ok. 20 watów. Te przewagi sztucznej inteligencji nad naturalną są trwałe. Natomiast naturalnej inteligencji nad sztuczną – mimo że dzisiaj jeszcze ogromne – wyglądają na tymczasowe.
Pochodzenie świadomości i przyszłość Sztucznej Ogólnej Inteligencji
Mózg ludzki ma jeszcze jedną cechę, niewątpliwie fundamentalną – świadomość. Gdybyśmy mieli kiedyś stworzyć sztuczny jego odpowiednik, to musielibyśmy umieć go w nią „wyposażyć”. Do tego potrzebne jest wszakże rozumienie czym ona w istocie jest i jak powstaje? Czy jest to zjawisko emergentne i przekroczenie pewnej (jakiej?) złożoności sieci informacyjnej „automatycznie” powoduje jej pojawienie się? Albo, może konieczny jest jakiś dodatkowy, niezbędny składnik?
Dorobek psychologii fizjologicznej, neurobiologii i fizyki wskazuje, że raczej na pewno nie istnieje żadna, wyraźna różnica między inteligencją naturalną a sztuczną. Wiele z tego, co wiemy sugeruje, że „jesteśmy robotami złożonymi z robotów, złożonych z robotów… aż do białek motorycznych i tego typu drobin, bez żadnego magicznego składnika po drodze” (D.C. Dennett).
Człowiek prawdopodobnie jest maszyną, która myśli. Zbudowaną z atomów, perfekcyjną symulacją kwantową problemu wielu elementów połączonych na wiele różnych sposobów. Maszyną niebezpiecznie zdolną do samodzielnego przeprogramowywania, wzmacniającą możliwości przez symbiozę z innymi maszynami i uniemożliwiającą innym wyłączanie swojego zasilania.
Gorąco dyskutowana, tzw. zdumiewająca hipoteza noblisty Francisa Cricka stwierdza, że umysł „wyłania” się z materii i jest niczym więcej, jak zachowaniem gigantycznego zbioru komórek nerwowych i tworzących je molekuł. Nikt, nigdy dotąd – uważa Crick – nie natrafił na żadną moc umysłu, która byłaby odseparowana od konwencjonalnych fizycznych zdarzeń w organizmach biologicznych, aż do poziomu elektronów, fotonów, kwarków i gluonów. Stąd już tylko krok do wniosku, że naturalna inteligencja jest szczególnym przypadkiem sztucznej inteligencji.
Nic, co wiemy dzisiaj w naukach, takich jak fizyka, biologia, psychologia etc., nie wyklucza możliwości stworzenia superinteligencji, przewyższającej inteligencję człowieka. Jeśli tak, to naprawdę interesującym pytaniem jest przyszłość Sztucznej Ogólnej Inteligencji (AGI) – lub jeszcze brutalniej – przyszłość inteligencji w ogóle.
Inteligentny, czyli autonomiczny, nieprzewidywalny ze swej natury?
Komputer często definiuje się dzisiaj jako Absolutnie Posłuszny Imbecyl – TOM (Totally Obedient Moron). Nic nie pomoże tu dodawanie kolejnych, „inteligentnych” funkcjonalności. Naszym celem jest jednak raczej Nieposłuszna Myśląca Aplikacja – DATA (Disobedient Autonomous Thinking Application). Nieposłuszna, bo autonomiczna.
W takim razie musimy też kardynalnie zmienić nasze naiwne, roszczeniowe myślenie o przyszłości sztucznej inteligencji. Norbert Wiener już w roku 1964 ostrzegał, że „świat przyszłości będzie areną coraz trudniejszych zmagań z ograniczeniami naszej inteligencji, a nie wygodnym hamakiem, w którym będziemy leżeć, obsługiwani przez roboty-niewolników”.
„Zwykła” AI może się nauczyć grać w pokera, ale już Sztuczna Ogólna Inteligencja AGI może nie mieć na to ochoty. Albo w trakcie uznać, że już przestała interesować ją wygrana, bo sprawia jej przyjemność sama gra. Albo próbować wygrać przez wymyślenie skrajnie ryzykownego ruchu, jak robią to czasem arcymistrzowie. Pamiętacie słynny, początkowo uznany za bezsensowny ruch nr. 37 programu AlphaGo w drugiej – wygranej dzięki niemu – partii meczu z Lee Sedolem?
Będziemy więc musieli zmierzyć się z perspektywą pojawienia się superinteligentnych, nieprzewidywalnych ze swej natury maszyn, o niedoskonale wyznaczonych przez nas celach mogących być, w konsekwencji, w konflikcie z naszymi. Ich dążenie do osiągnięcia celów może okazać się trudne do opanowania. Zanim pojawi się AGI, musimy zatem wymyśleć sposób na to, by AI zrozumiało, przyjęło i zaakceptowało nasze cele. „Nasze”, czyli jakie, które, czyje?
Prawdziwym zagrożeniem ze strony AI jest nie tyle jej złośliwość, której najczęściej się obawiamy, ile kompetencje. „Jeśli zadaniem maszyny jest maksymalizacja liczby spinaczy, to przetworzy ona cały wszechświat na spinacze” (N. Bostrom). Superinteligentna AGI będzie ekstremalnie skuteczna w realizacji dążeń i jeśli te nie będą się pokrywały z naszymi, to my, ich twórcy, możemy mieć problemy. O tym zapewne myślał N. Wiener pisząc, że jeśli złota rybka pozwoli nam mieć trzy życzenia, to bardzo uważajmy o co ją prosimy.
Aby jednak systemy superinteligentne wyciągały poprawne wnioski na temat pragnień ludzi, musiałyby dysponować dobrymi modelami ludzkiego poznania. Czy będą miały na to ochotę? „Pierwsza ultrainteligentna maszyna jest ostatnim wynalazkiem, jaki człowiek będzie musiał wynaleźć, pod warunkiem że okaże się na tyle miła, że powie nam, jak nad nią panować” (I.J. Good). Siła technologii rośnie szybciej, niż nasze umiejętności panowania nad nią. A może, coraz częściej, człowiek będzie zatem w istocie inteligentnym interfejsem między maszynami?
Czy będziemy np. mogli spytać taką maszynę, co myśli o maszynach, które myślą (J. Brockman)? Czy bywa zagubiona? Marzy? Dziwi się? Kocha się w innej maszynie? Straci poczucie czasu? Postanowi mieć kanarka? Myślała kiedyś o samobójstwie? Nudzi się? Ma jakieś fobie? Pracownik Google wyznał: „Nie skanujemy książek, aby czytali je ludzie, ale po to, by czytała je AI”. To, że maszyny będą przypominać ludzi jest mniej niebezpieczne, niż to, że ludzie będą traktowani jak maszyny. Przez kogo?
Do tej pory przyjmowało się, że testem na „posiadanie” samoświadomości jest rozpoznawanie się w lustrze. Test ten potrafią zdać niektóre gatunki naczelnych, delfiny, słonie, świnie, sroki, a nawet mrówki. Ale zdał go również robot Obo. A robot Nao zaliczył test rozpoznawania swojego głosu i wnioskowania na tej podstawie o wewnętrznym stanie istnienia – niemym, czy nie.
Trzecie Prawo Sztucznej Inteligencji nie pozostawia nam żadnych złudzeń: Każdy system na tyle prosty, aby go zrozumieć, nie będzie na tyle złożony, by przejawiał inteligencję. A każdy system na tyle złożony, aby przejawiał inteligencję, będzie zbyt złożony, by go zrozumieć. Czyli, nie będziemy w stanie zrozumieć superinteligencji, kiedy już ją stworzymy!
Bezlitosne Trzecie Prawo Sztucznej Inteligencji
Znamy trzy główne Prawa Sztucznej Inteligencji. Pierwsze: każdy skuteczny system kontroli musi być co najmniej równie złożony, jak kontrolowany (W.R. Ashby). Drugie: cechą dominującą systemu złożonego jest to, że sam w sobie stanowi on najprostszy model swojego zachowania (J. von Neumann). Próby zredukowania go do jakiejkolwiek formalnej postaci komplikują go, a nie upraszczają.
Natomiast tzw. Trzecie Prawo Sztucznej Inteligencji nie pozostawia nam już żadnych złudzeń: Każdy system na tyle prosty, aby go zrozumieć, nie będzie na tyle złożony, by przejawiał inteligencję. A każdy system na tyle złożony, aby przejawiał inteligencję, będzie zbyt złożony, by go zrozumieć. Czyli, nie będziemy w stanie zrozumieć superinteligencji, kiedy już ją stworzymy! Dramatyczny paradoks polega więc na tym, że potrzebujemy stworzyć superinteligencję, aby radzić sobie z problemami złożonego świata, ale kiedy nam się to już uda, to prawdopodobnie stracimy nad nią kontrolę, niekiedy zresztą z własnej woli.
Systemy nerwowe i mózg ludzki mają charakter analogowy, choć najnowsze badania (np. Tinity College, październik 2022 rok) sugerują, że mózg działa jak komputer kwantowy. Przetwarzają one informacje z otoczenia i się uczą. Celem jest kontrola własnego zachowania i środowiska, w którym żyją. Przetwarzanie cyfrowe nie toleruje błędów i niejednoznaczności. Potrzebuje nieustannej korekcji. Przetwarzanie analogowe toleruje błędy i radzi sobie z nimi.
Tworzenie superinteligencji będzie zatem prawdopodobnie wymagać powrotu do analogowości. Ale to z kolei tworzy kolejny poważny problem: możemy kontrolować komputery tylko do momentu, kiedy potrzebują one programisty. Później nie będziemy już mieli takiej możliwości. Zapewne stworzymy kiedyś superinteligencję równą, lub nawet lepszą, niż nasza. Te wnioski znacząco jednak obniżają nasz dzisiejszy, naiwny entuzjazm.
Nieoczekiwana konkluzja
Inteligencja wyewoluowała, ponieważ pozwoliła nam zrozumieć świat i planować przyszłość, czyli radzić sobie z nieoczekiwanymi zdarzeniami. Darwinowskie przystosowanie wcale nie faworyzuje jednak organizmów wyłącznie ze względu na ich inteligencję, ponieważ jej wyższy poziom może się wiązać z kosztami (np. energetycznymi), przewyższając korzyści. Ewolucji udało się więc stworzyć ludzką inteligencję bez stawiania jej sobie za cel.
Laureat Nagrody Nobla w zakresie chemii, Venki Ramakrishnan (uwaga otrzymał ją w roku 2019, na rok przed pandemią!) powiedział: „Jeśli przyjrzymy się życiu na Ziemi zobaczymy, że daleko nam do najbardziej żywotnych gatunków. Jeśli kiedyś zostaniemy podbici, to przez jedną z najstarszych form życia na Planecie, np. bakterie. One potrafią przetrwać wszędzie – od Antarktyki do najgłębszych i najgorętszych środowisk kwasowych i beztlenowych. Nie wiem, jaką przyszłość przyniesie nam AI, czy staniemy się dla niej drugorzędni, czy przestarzali, czy okaże się przydatnym rozwinięciem naszych możliwości. Mam jednak uzasadnione podstawy, aby sądzić, że komputery nigdy nie staną się panami bakterii”.
Czy można sobie wyobrazić lepszą klamrę spinającą rozważania o wysiłkach tworzenia lepszej sztucznej inteligencji, z tymi wcześniejszymi, o konieczności rozwiązań globalnych dla przetrwania cywilizacji? Kto zrobi to lepiej: mistrz inteligencji, czy mistrz przetrwania? Kto/co jest zatem faktycznym władcą Przyrody?
prof. Piotr Płoszajski – polski ekonomista, doktor habilitowany nauk ekonomicznych, emerytowany profesor i kierownik Katedry Teorii Zarządzania (1994–2018) Szkoły Głównej Handlowej w Warszawie (SGH), obecnie jest wykładowcą Programu MBA-SGH.