CDOITwiz 100Polecane tematy

Jaka przyszłość czeka inteligencję?

PRZYSZŁOŚĆ LUDZKOŚCI

Jak przekonujemy się ostatnio – nieustannie i boleśnie – świat biologiczny, polityczny i gospodarczy jest globalnym, „ciasno związanym” systemem złożonym, z wysoką wrażliwością na warunki początkowe (tzw. efekt motyla). Jest on więc ogromnie trudny do prognozowania i regulacji. Wymaga nowych, znacznie doskonalszych narzędzi analitycznych i logistycznych.

Jaka przyszłość czeka inteligencję?

Najważniejsze informacje

O napisanie felietonów w jubileuszowym, 100 numerze ITwiz poprosiliśmy osoby odpowiedzialne za IT i cyfrową transformację w największych firmach i organizacjach w Polsce, a także przedstawicieli nauki. Artykuły poświęcone są temu, co ich obecnie inspiruje. Pobierz je bezpłatnie.

Wielką, uzasadnioną nadzieją są tu oczywiście technologie IT. Ale w tym celu w sektorze IT musi się dokonać „przejście fazowe”, czyli ja­kościowy skok technologiczny. Dotyczy to infrastruktury: powszechne szybsze i efektywniejsze sieci, pamięci ma­sowe, komputery kwantowe i biologiczne, zaawansowane rozwiązania chmurowe itd., ale także programowania: protokoły transmisji, szyfrowanie (m.in. kwantowe), me­tody heurystyczne, systemy eksperckie, „inteligentne” algorytmy itd.

Najbardziej obiecujące są tu dziś zastosowania tzw. sztucznej inteligencji. Ale stworzona przez nas złożoność będzie wymagała bardzo dużo, bardzo innej inteligencji. Czy jesteśmy w stanie ją stworzyć? Co by to miało oznaczać? Czy, jako zagrożona cywili­zacja, mamy inne wyjście?

Jak na razie, wspomaganie lub nawet zastępowanie ludzkiego rozumu w specjalizowanych sytuacjach idzie nam nieźle. Kompu­tery wygrywają w szachy i pokera, a AlfaGo Zero samo nauczyło się grać w arcytrudną grę Go. Algorytmy sterują samolotami, zarządzają sieciami energetycznymi, diagnozują choroby, kom­ponują niedokończone części symfonii, malują obrazy, pomagają fałdować białka w poszukiwaniu nowych leków i wygrywać wy­bory prezydenckie.

Takie projekty pozwalają nam myśleć o tym, gdzie technolo­gia zabierze nas kiedyś w świecie kreatywności i projektowania. Rodzą nieśmiałe – na razie – pytania o możliwość zmierzchu monopolu człowieka na inteligencję.

Problem w tym, że w momencie, kiedy wreszcie potrafimy sprawnie organizować wiele aspektów naszego funkcjonowania, zaczynamy beztrosko oddawać tę kontrolę sztucznym agentom, które (jednak) nie myślą, również w obszarach, gdzie, na razie, jest na to zdecydowanie za wcześnie. Wygląda to na niebezpieczne przełączanie cywilizacji na autopilota.

Inteligencja sztuczna, czyli jaka?

Powszechne używanie terminu „sztuczna inteligencja” jest dzisiaj wciąż niebezpiecznym nadużyciem. Ponieważ, jeśli jej produkty nazywamy „inteligentnymi” (nawet, jeśli przyznajemy, że są „sztuczne”), to bez specjalnych oporów przekazujemy im uprawnienia do decydowania. Szczególnie, że w ogromnej liczbie różnorodnych sytuacji rzeczywiście dają one ogromne korzyści.

Problem w tym, że w momencie, kiedy wreszcie potrafimy spraw­nie organizować wiele aspektów naszego funkcjonowania, za­czynamy beztrosko oddawać tę kontrolę sztucznym agentom, które (jednak) nie myślą, również w obszarach, gdzie, na razie, jest na to zdecydowanie za wcześnie. Wygląda to na niebezpiecz­ne przełączanie cywilizacji na autopilota.

W tym sensie, przesadnie hałaśliwe dziś zjawisko metaverse jest moim zdaniem nieporównanie mniej istotne, niż dziejący się ci­cho, ale konsekwentnie proces powstawania rozległej sieci „am­bient (otaczającej) intelligence”, gdzie niezliczone, niewidoczne czujniki, aplikacje i urządzenia rozwiązują nasze problemy, często nawet bez naszej świadomości.

Przestrzegał przed tym Norbert Wiener już w 1950 roku: pisząc, że wkrótce ludzie zaczną przekazywać kontrolę nad społeczeń­stwem na rzecz cybernetycznej sztucznej inteligencji, co dla gatunku ludzkiego skończy się – jego zdaniem – źle. Stąd przecież np. biorą się coraz liczniejsze ostatnio niepokoje o „etyczność” sztucznej inteligencji po wykryciu wielu dowodów na trudne do wyjaśnienia przypadki jej „tendencyjności”.

Przesadnie hałaśliwe dziś zjawisko metaverse jest moim zdaniem nieporównanie mniej istotne, niż dziejący się cicho, ale konsekwentnie proces powstawania rozległej sieci „ambient (otaczającej) intelligence”, gdzie niezliczone, niewidoczne czujniki, aplikacje i urządzenia rozwiązują nasze problemy, często nawet bez naszej świadomości.

Chciwe, kruche, nieprzezroczyste i płytkie Deep Learning

Sieci neuronowe, to mistrzowie rozpoznawania rozmytych wzor­ców w wielkich zbiorach różnorodnych danych. Ale AI, w aktu­alnych przejawach, jest w jakimś sensie pasożytem inteligencji ludzkiej, bezmyślnie wchłaniając to, co zostało wyprodukowane przez ludzkich twórców i wydobywając wszystkie wzorce, jakie da się w tym znaleźć, w tym nasze najbardziej złośliwe nawyki.

Nawet zaawansowane, głębokie uczenie maszynowe (Deep Le­arning) jest chciwe, kruche, nieprzezroczyste i płytkie (Marcus). Chciwe, bo potrzebuje wielkich zbiorów danych treningowych. Kruche, bo nie radzi sobie z nieznanym kontekstem. Nieprze­zroczyste, bo jest „czarną skrzynką” i jego wyniki rodzą pytania o wiarygodność i tendencyjność (bias). Płytkie, bo nie rozumie zewnętrznego świata i ludzkiej psychologii.

Po uruchomieniu Deep Learning na jakimś rozległym zbiorze danych tracimy zatem kontrolę nad procesem, który sam doko­nuje optymalizacji, a następnie podaje (jakiś) wynik. Dzisiejsze uczenie maszynowe oparte jest prawie w całości na operacjach statystycznych, a zatem nie jest w stanie stworzyć silnej AI. Nie daje możliwości wykrycia zależności przyczynowych. Wykrywane korelacje mogą bowiem być pozorne. Jest to więc, ciągle jeszcze, klasyczny przykład czarnego pudełka. Co rodzi ważkie pytanie praktyczne: któremu czarnemu pudełku wierzyć?!

Dzisiejsze uczenie maszynowe oparte jest prawie w całości na operacjach statystycznych, a zatem nie jest w stanie stworzyć silnej AI. Nie daje możliwości wykrycia zależności przyczynowych. Wykrywane korelacje mogą bowiem być pozorne. Jest to więc, ciągle jeszcze, klasyczny przykład czarnego pudełka. Co rodzi ważkie pytanie praktyczne: któremu czarnemu pudełku wierzyć?!

Będziemy potrzebowali inteligencji równej, lub lepszej, niż ludzka

Do rozwiązywania problemów złożonych, globalnych systemów niezbędna będzie więc znacznie lepsza technologia, niż dzisiej­sze sieci neuronowe. Być może dochodzimy do granic możliwo­ści ludzkiego hardware’u. Będziemy potrzebowali inteligencji równej, lub lepszej, niż ludzka. Z pominięciem ograniczeń tejże i równoczesnym wykorzystaniem przewag tej „sztucznej”.

Na razie ludzki mózg ma jeszcze parę przewag: trójwymiarowość, zdolność do samoreperacji i samoorganizacji, wielość połączeń, integracja sensorów (oczy, słuch, węch itp.) i aktuatorów (dłonie, nogi, usta itp.). Natomiast technologie IT już dzisiaj przekraczają ludzkie możliwości pod względem: prędkości (np. przetwarza­nia wielkich baz danych), rozmiaru (neuron, ok. 10 mikronów vs. elektroniczna „molekuła” – 10 000 razy mniejsza, co przy­spiesza połączenia), stabilności – analogowa vs. cyfrowa, czas ciągłej pracy, modularność (otwarta architektura) i tzw. goto­wość kwantowa, czyli możliwość zastosowania nowych reguł operacyjnych i nowych poziomów inteligencji.

Mózg ludzki jest też ciągle nieporównanie sprawniejszy ener­getycznie. Program IBM Watson, słynny zwycięzca teleturnieju Jeopardy! zużywał 85 000 watów; ludzki potrzebuje ok. 20 wa­tów. Te przewagi sztucznej inteligencji nad naturalną są trwałe. Natomiast naturalnej inteligencji nad sztuczną – mimo że dzisiaj jeszcze ogromne – wyglądają na tymczasowe.

Pochodzenie świadomości i przyszłość Sztucznej Ogólnej Inteligencji

Mózg ludzki ma jeszcze jedną cechę, niewątpliwie fundamental­ną – świadomość. Gdybyśmy mieli kiedyś stworzyć sztuczny jego odpowiednik, to musielibyśmy umieć go w nią „wyposażyć”. Do tego potrzebne jest wszakże rozumienie czym ona w istocie jest i jak powstaje? Czy jest to zjawisko emergentne i przekroczenie pewnej (jakiej?) złożoności sieci informacyjnej „automatycznie” powoduje jej pojawienie się? Albo, może konieczny jest jakiś dodatkowy, niezbędny składnik?

Dorobek psychologii fizjologicznej, neurobiologii i fizyki wskazu­je, że raczej na pewno nie istnieje żadna, wyraźna różnica między inteligencją naturalną a sztuczną. Wiele z tego, co wiemy su­geruje, że „jesteśmy robotami złożonymi z robotów, złożonych z robotów… aż do białek motorycznych i tego typu drobin, bez żadnego magicznego składnika po drodze” (D.C. Dennett).

Człowiek prawdopodobnie jest maszyną, która myśli. Zbudowa­ną z atomów, perfekcyjną symulacją kwantową problemu wielu elementów połączonych na wiele różnych sposobów. Maszyną niebezpiecznie zdolną do samodzielnego przeprogramowywa­nia, wzmacniającą możliwości przez symbiozę z innymi maszy­nami i uniemożliwiającą innym wyłączanie swojego zasilania.

Gorąco dyskutowana, tzw. zdumiewająca hipoteza noblisty Francisa Cricka stwierdza, że umysł „wyłania” się z materii i jest niczym więcej, jak zachowaniem gigantycznego zbioru komórek nerwowych i tworzących je molekuł. Nikt, nigdy dotąd – uważa Crick – nie natrafił na żadną moc umysłu, która byłaby odsepa­rowana od konwencjonalnych fizycznych zdarzeń w organizmach biologicznych, aż do poziomu elektronów, fotonów, kwarków i gluonów. Stąd już tylko krok do wniosku, że naturalna inte­ligencja jest szczególnym przypadkiem sztucznej inteligencji.

Nic, co wiemy dzisiaj w naukach, takich jak fizyka, biologia, psychologia etc., nie wyklucza możliwości stworzenia superin­teligencji, przewyższającej inteligencję człowieka. Jeśli tak, to naprawdę interesującym pytaniem jest przyszłość Sztucznej Ogólnej Inteligencji (AGI) – lub jeszcze brutalniej – przyszłość inteligencji w ogóle.

Inteligentny, czyli autonomiczny, nieprzewidywalny ze swej natury?

Komputer często definiuje się dzisiaj jako Absolutnie Posłuszny Imbecyl – TOM (Totally Obedient Moron). Nic nie pomoże tu dodawanie kolejnych, „inteligentnych” funkcjonalności. Naszym celem jest jednak raczej Nieposłuszna Myśląca Aplikacja – DATA (Disobedient Autonomous Thinking Application). Nieposłuszna, bo autonomiczna.

W takim razie musimy też kardynalnie zmienić nasze naiwne, roszczeniowe myślenie o przyszłości sztucznej inteligencji. Norbert Wiener już w roku 1964 ostrzegał, że „świat przy­szłości będzie areną coraz trudniejszych zmagań z ograni­czeniami naszej inteligencji, a nie wygodnym hamakiem, w którym będziemy leżeć, obsługiwani przez roboty-nie­wolników”.

„Zwykła” AI może się nauczyć grać w pokera, ale już Sztuczna Ogólna Inteligencja AGI może nie mieć na to ochoty. Albo w trak­cie uznać, że już przestała interesować ją wygrana, bo sprawia jej przyjemność sama gra. Albo próbować wygrać przez wymyślenie skrajnie ryzykownego ruchu, jak robią to czasem arcymistrzowie. Pamiętacie słynny, początkowo uznany za bezsensowny ruch nr. 37 programu AlphaGo w drugiej – wygranej dzięki niemu – partii meczu z Lee Sedolem?

Będziemy więc musieli zmierzyć się z per­spektywą pojawienia się superinteligent­nych, nieprzewidywalnych ze swej natury maszyn, o niedoskonale wyznaczonych przez nas celach mogących być, w konse­kwencji, w konflikcie z naszymi. Ich dąże­nie do osiągnięcia celów może okazać się trudne do opanowania. Zanim pojawi się AGI, musimy zatem wymyśleć sposób na to, by AI zrozumiało, przyjęło i zaakceptowało nasze cele. „Nasze”, czyli jakie, które, czyje?

Prawdziwym zagrożeniem ze strony AI jest nie tyle jej złośliwość, której najczęściej się obawiamy, ile kompetencje. „Jeśli zadaniem maszyny jest maksymalizacja liczby spinaczy, to przetworzy ona cały wszechświat na spi­nacze” (N. Bostrom). Superinteligentna AGI będzie ekstremalnie skuteczna w realizacji dążeń i jeśli te nie będą się pokrywały z naszy­mi, to my, ich twórcy, możemy mieć problemy. O tym zapewne myślał N. Wiener pisząc, że jeśli złota rybka pozwoli nam mieć trzy ży­czenia, to bardzo uważajmy o co ją prosimy.

Aby jednak systemy superinteligentne wy­ciągały poprawne wnioski na temat pragnień ludzi, musiałyby dysponować dobrymi mo­delami ludzkiego poznania. Czy będą miały na to ochotę? „Pierwsza ultrainteligentna maszyna jest ostatnim wynalazkiem, jaki człowiek będzie musiał wynaleźć, pod warun­kiem że okaże się na tyle miła, że powie nam, jak nad nią panować” (I.J. Good). Siła technologii rośnie szybciej, niż nasze umiejętności panowania nad nią. A może, coraz częściej, człowiek będzie zatem w istocie inteligentnym interfejsem między maszynami?

Czy będziemy np. mogli spytać taką maszynę, co myśli o maszy­nach, które myślą (J. Brockman)? Czy bywa zagubiona? Marzy? Dziwi się? Kocha się w innej maszynie? Straci poczucie czasu? Postanowi mieć kanarka? Myślała kiedyś o samobójstwie? Nudzi się? Ma jakieś fobie? Pracownik Google wyznał: „Nie skanujemy książek, aby czytali je ludzie, ale po to, by czytała je AI”. To, że maszyny będą przypominać ludzi jest mniej niebezpieczne, niż to, że ludzie będą traktowani jak maszyny. Przez kogo?

Do tej pory przyjmowało się, że testem na „posiadanie” sa­moświadomości jest rozpoznawanie się w lustrze. Test ten potra­fią zdać niektóre gatunki naczelnych, delfiny, słonie, świnie, sroki, a nawet mrówki. Ale zdał go również robot Obo. A robot Nao zaliczył test rozpoznawania swojego głosu i wnioskowania na tej podstawie o wewnętrznym stanie istnienia – niemym, czy nie.

Trzecie Prawo Sztucznej Inteligencji nie pozostawia nam żadnych złudzeń: Każdy system na tyle prosty, aby go zrozumieć, nie będzie na tyle złożony, by przejawiał inteligencję. A każdy system na tyle złożony, aby przejawiał inteligencję, będzie zbyt złożony, by go zrozumieć. Czyli, nie będziemy w stanie zrozumieć superinteligencji, kiedy już ją stworzymy!

Bezlitosne Trzecie Prawo Sztucznej Inteligencji

Znamy trzy główne Prawa Sztucznej Inteligencji. Pierwsze: każdy skuteczny system kontroli musi być co najmniej równie złożony, jak kontrolowany (W.R. Ashby). Drugie: cechą dominującą systemu złożonego jest to, że sam w sobie stanowi on najprostszy model swojego zachowania (J. von Neumann). Próby zredukowania go do jakiejkolwiek formalnej postaci komplikują go, a nie upraszczają.

Natomiast tzw. Trzecie Prawo Sztucznej Inteligencji nie pozosta­wia nam już żadnych złudzeń: Każdy system na tyle prosty, aby go zrozumieć, nie będzie na tyle złożony, by przejawiał inteligencję. A każdy system na tyle złożony, aby przejawiał inteligencję, bę­dzie zbyt złożony, by go zrozumieć. Czyli, nie będziemy w stanie zrozumieć superinteligencji, kiedy już ją stworzymy! Dramatycz­ny paradoks polega więc na tym, że potrzebujemy stworzyć su­perinteligencję, aby radzić sobie z problemami złożonego świata, ale kiedy nam się to już uda, to prawdopodobnie stracimy nad nią kontrolę, niekiedy zresztą z własnej woli.

Systemy nerwowe i mózg ludzki mają charakter analogowy, choć najnowsze badania (np. Tinity College, październik 2022 rok) sugerują, że mózg działa jak komputer kwantowy. Przetwarzają one informacje z otoczenia i się uczą. Celem jest kontrola wła­snego zachowania i środowiska, w którym żyją. Przetwarzanie cyfrowe nie toleruje błędów i niejednoznaczności. Potrzebuje nieustannej korekcji. Przetwarzanie analogowe toleruje błędy i radzi sobie z nimi.

Tworzenie superinteligencji będzie zatem prawdopodobnie wy­magać powrotu do analogowości. Ale to z kolei tworzy kolejny poważny problem: możemy kontrolować komputery tylko do momentu, kiedy potrzebują one programisty. Później nie bę­dziemy już mieli takiej możliwości. Zapewne stworzymy kiedyś superinteligencję równą, lub nawet lepszą, niż nasza. Te wnioski znacząco jednak obniżają nasz dzisiejszy, naiwny entuzjazm.

Nieoczekiwana konkluzja

Inteligencja wyewoluowała, ponieważ pozwoliła nam zrozumieć świat i planować przyszłość, czyli radzić sobie z nieoczekiwanymi zdarzeniami. Darwinowskie przystosowanie wcale nie fawory­zuje jednak organizmów wyłącznie ze względu na ich inteligen­cję, ponieważ jej wyższy poziom może się wiązać z kosztami (np. energetycznymi), przewyższając korzyści. Ewolucji udało się więc stworzyć ludzką inteligencję bez stawiania jej sobie za cel.

Laureat Nagrody Nobla w zakresie chemii, Venki Ramakrish­nan (uwaga otrzymał ją w roku 2019, na rok przed pandemią!) powiedział: „Jeśli przyjrzymy się życiu na Ziemi zobaczymy, że daleko nam do najbardziej żywotnych gatunków. Jeśli kiedyś zostaniemy podbici, to przez jedną z najstarszych form życia na Planecie, np. bakterie. One potrafią przetrwać wszędzie – od Antarktyki do najgłębszych i najgorętszych środowisk kwaso­wych i beztlenowych. Nie wiem, jaką przyszłość przyniesie nam AI, czy staniemy się dla niej drugorzędni, czy przestarzali, czy okaże się przydatnym rozwinięciem naszych możliwości. Mam jednak uzasadnione podstawy, aby sądzić, że komputery nigdy nie staną się panami bakterii”.

Czy można sobie wyobrazić lepszą klamrę spinającą rozwa­żania o wysiłkach tworzenia lepszej sztucznej inteligencji, z tymi wcześniejszymi, o konieczności rozwiązań globalnych dla przetrwania cywilizacji? Kto zrobi to lepiej: mistrz inteli­gencji, czy mistrz przetrwania? Kto/co jest zatem faktycznym władcą Przyrody?

prof. Piotr Płoszajski – polski ekonomista, doktor habilitowany nauk ekonomicznych, emerytowany profesor i kierownik Katedry Teorii Zarządzania (1994–2018) Szkoły Głównej Handlowej w Warszawie (SGH), obecnie jest wykładowcą Programu MBA-SGH.

Tagi

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *