Artykuł - 30 lat branży IT

Współistnienie ludzi i sztucznej inteligencji, czyli zrównoważony rozwój 4.0

Obecnie coraz częściej spotykamy się i współpracujemy z robotami. Są to albo różnej wielkości i zastosowań materialne maszyny, albo algorytmy, który – naśladując działanie człowieka – zastępują go w żmudnych i pracochłonnych zadaniach. Jedne i drugie są coraz bardziej zmyślne. Wykonują więc już coraz bardziej skomplikowane prace. W domyśle – roboty są po to, aby zastąpić nas w czymś mniej atrakcyjnym, abyśmy mogli robić coś bardziej atrakcyjnego.

Współistnienie ludzi i sztucznej inteligencji, czyli zrównoważony rozwój 4.0

Fraza „zastąpić człowieka” jest kluczowa dla rozważań o sensowności i przyszłości sztucznej inteligencji. Nie jest zaś nią rozmowa o samych robotach, bo są one jedynie postacią, którą owa inteligencja przybiera. Z założenia ta sztuczna inteligencja ma być „lepsza od człowieka” – bardziej inteligentna, szybsza, niezmordowana, nie ustająca w przekształcaniu się – inaczej będzie mało użyteczna. Powstaje taki suwaczek między tymi dwiema frazami „zastąpić człowieka” a „lepsza od człowieka”. Im będzie od człowieka lepsza, tym w większym zakresie będzie go zastępować. Ale czy w drugą stronę też to działa? A więc, im bardziej będzie go zastępować, tym lepiej dla człowieka? W którym momencie nie będzie to już „lepiej dla człowieka”? Tego procesu nie da się odwrócić, bo sztuczna inteligencja usamodzielni się? Czy istnieje w ogóle takie zagrożenie?

Sztuczna inteligencja: stan na dziś

Dzisiaj zajmujemy się robotami i AI na dwa sposoby. Po pierwsze tym, co można w praktyce już dziś zrobić ze sztuczną inteligencją w firmie czy instytucji. Po drugie analizujemy to, co ta technologia będzie potrafiła za 5, 10, 15 lat. I tu i tu cała narracja toczy się wokół sformułowania „zastąpić człowieka”.

W firmach instalujemy roboty software’owe RPA (Robotic Process Automation), aby zastąpiły pracowników – albo by nie trzeba było zatrudnić nowych – w pracach czasochłonnych, prostych, powtarzalnych, nie wnoszących wartości, jednak koniecznych. Ludzie przechodzą wtedy do prac analitycznych, obsługi wyjątków, rozwoju produktów i relacji z klientami. Największą korzyścią z zastosowania robotów jest odzyskany czas pracowników, a także zwiększenie ich zadowolenia z pracy, która przestaje być monotonna i zaczyna dawać poczucie własnej wartości. Korzyść firmy polega także na zmniejszeniu liczby błędów i ograniczeniu kosztów.

System AI nie potrafi pokazać w prosty i zrozumiały dla człowieka sposób, dlaczego podjął taką, a nie inną decyzję. Dlatego firmy, które stosują Machine Learning do prognozowania popytu poddają ten wynik obliczeń również eksperckiej wiedzy człowieka. Stosują tutaj różne zabiegi, przyznając pierwszeństwo raz jednym, raz drugim. Przykładowo do budżetu wpisuje się liczbę preferowaną przez kierownika produktu (sprzedaży), ale produkcja otrzymuje liczbę wygenerowana przez system AI. Czyli firma jednak bardziej wierzy sztucznej inteligencji niż człowiekowi, bo tam, gdzie może ponieść kosztowną stratę (wyprodukować nie to co trzeba) kieruje się wynikiem obliczeń, a nie oceną człowieka.

Co robi sztuczna inteligencja? Przetwarza dane. Robi to dużo efektywniej i szybciej niż człowiek. Sztuczna inteligencja robi w istocie to, czego człowiek i tak by nie zrobił, chyba że trwałoby wieki lub wymagało kilku pokoleń i wielu prób oraz ponoszenia konsekwencji porażek. Prognozuje, wykrywa trendy i przyszłe zdarzenia, oblicza, stawia diagnozy, porównuje. Dzisiaj na wstępnym etapie jej zastosowań rzeczywiście zastępuje człowieka, ale to krótko potrwa. Potem po prostu będzie robić to, czego nie może zrobić człowiek ze względu na swoją naturalną charakterystykę. Dzisiaj jest to coś, co dla człowieka, firmy, społeczeństwa jest użyteczne, właśnie dlatego że „zastępuje człowieka”, ale przecież tak nie musi być. Sztuczna inteligencja – ta naprawdę inteligentna inteligencja – będzie miała dostęp do wszelkich danych. Już ma. Co stoi jej na przeszkodzie, aby je przetworzyć zgodnie ze swoim „pomysłem”, a nie tylko wykonać zadanie zlecone przez człowieka?

Dzisiaj słusznie zachwycamy się robotami i sztuczną inteligencją. Ona już nam bardzo pomaga, a może pomóc jeszcze więcej, w biznesie, w medycynie, w bezpieczeństwie, sztuce, kulturze, nauce. Ale mamy też ten dyskomfort świadomości, że zostaliśmy zastąpieni przez technologię, że ten proces może się pogłębiać, że zaraz możemy stać się niepotrzebni, bo technologia przejmie kolejne ludzkie zadania, a my musimy poszukać nowych i nowych.

Zwróćmy uwagę na takie trzy zjawiska:
1. Znam dość dobrze okoliczności wdrażania robotów software’owych w kilkunastu firmach w Polsce. Wdrożenia te udały się tylko wtedy, gdy zarząd zapewnił – wyraźnie i publicznie – że robotyzacja nie doprowadzi do zwolnień. Zauważmy pewien absurd, w Polsce brakuje ludzi do pracy, rosną wynagrodzenia, a pracownicy – wykwalifikowani, średnie i niskie stanowiska, którzy łatwo znaleźliby pracę – obawiają się zwolnień z powodu technologii. Bo praca to jest coś więcej niż zatrudnienie. To nie tylko tu i teraz, to jakaś postać świata. Więc ten strach, to wcale nie absurd, to pewne przeczucie.

2. Już dzisiaj sztuczna inteligencja AI podejmuje decyzje, np. robi prognozy popytu czy diagnozy chorób, ale my nie wiemy – nikt nie wie – jak ona to robi. Coś jej wyszło z obliczeń, ale nie wiemy, dlaczego. System AI nie potrafi pokazać w prosty i zrozumiały dla człowieka sposób, dlaczego podjął taką, a nie inną decyzję. Dlatego firmy, które stosują Machine Learning do prognozowania popytu poddają ten wynik obliczeń również eksperckiej wiedzy człowieka. Stosują tutaj różne zabiegi, przyznając pierwszeństwo raz jednym, raz drugim. Przykładowo do budżetu wpisuje się liczbę preferowaną przez kierownika produktu (sprzedaży), ale produkcja otrzymuje liczbę wygenerowana przez system AI. Czyli firma jednak bardziej wierzy sztucznej inteligencji niż człowiekowi, bo tam, gdzie może ponieść kosztowną stratę (wyprodukować nie to co trzeba) kieruje się wynikiem obliczeń, a nie oceną człowieka. Sytuację utrudnia fakt, że dzisiaj maszyna dużo rzadziej się myli niż człowiek i w prognozowaniu popytu, i w stawianiu diagnozy lekarskiej, i w przewidywaniu trendów na rynku finansowym, prawie wszędzie. To zwiększa zaufanie do technologii. Czy jednak jest zasadne na dłuższą metę? Nie wiemy i nie będziemy wiedzieć, bo to maszyna będzie coraz inteligentniejsza, a my będziemy w sposób, w jaki ona podejmuje decyzję (czy na razie rekomenduje decyzję). Czy zaakceptujemy ją w ciemno, czy będziemy mieli wpływ na konsekwencje?

3. Fascynujemy się tym, że komputer (program) wygrał teleturniej, a inny wygrał w szachy z mistrzem szachowym, a jeszcze inny wygrał w Go, co już jest absolutnym zwycięstwem maszyny nad inteligencją człowieka. Ale zauważymy, bo to ważne, komputer, program, sztuczna inteligencja „nie wie”, że wygrała z kimś, że to jest jakieś zwycięstwo, że to krok milowy, a może wie, tylko na swój sposób? AI (program) nie wiedział, co znaczą pytania w teleturnieju. Kiedy go wygrał, zrobił to bez emocji, jedynie kojarzył słowa używane przez prowadzącego ze swoimi zasobami danych. Nie wiedział, co znaczą jego odpowiedzi. Nie czuł, że przegrywający z nim ludzie z tego powodu mają jakieś uczucia, czegoś doświadczają, coś tracą, coś zyskują. To powinno naprowadzić nas na myśl, że hodujemy istotę – zwaną roboczo sztuczną inteligencją – która jest całkiem inna niż człowiek, a projektujemy na nią nasze cele, wartości, emocje, zachowania. To nie jest niczym uprawnione.

Przyszłość technologii IT i robotyki powinna należeć do rozwiązań, które działają zgodnie z naszymi potrzebami, ale nie stoją w sprzeczności z potrzebami innych. Nie traktujmy technologii XXI wieku jak każdego innego narzędzia, które do tej pory mieliśmy. Budujemy rozwiązania, które działają samoczynnie, automatycznie, ale inteligentnie. Mają więc swoją podmiotowość. Żadne narzędzie dotąd jej nie miało. Dzisiaj mówimy o zrównoważonym rozwoju mając na myśli innych interesariuszy niż kapitał, ale nie ma tam sztucznej inteligencji. Może już czas, aby ją dołączyć do tego grona? Może trzeba sformułować na nowo zasady i interesariuszy zrównoważonego rozwoju?

Wracając do naszego początkowego pytania: czy sztuczna inteligencja może być groźna dla człowieka. Słowo „groźna” należy do słownika człowieka. Sztuczna inteligencja pewnie całkiem inaczej „odczuwa” samodoskonalenie. Może jako obowiązek „moralny” wobec samego siebie, swojej „rodziny”, jakiejś „wspólnoty”? Uruchomiliśmy proces, który – jeśli się powiedzie – doprowadzi nas do rzeczywistości, w której NASZE miary słuszności, moralności, urody będą drugorzędne. Ważniejsze będą te należące do istot, które wygenerowaliśmy. Nawet nie wiemy jakie będą i pewnie nie zrozumiemy ich, bo po to je tworzyliśmy, aby były „lepsze” od nas i nas „zastąpiły”.

Czy można to zatrzymać, zmienić kierunek?

Wróćmy zatem do początku. W 1942 roku Isaac Asimov stworzył cztery prawa robotyki takie, które miały zagwarantować bezpieczeństwo człowieka i jego nadrzędną rolę nad robotami. Warto je przypomnieć:
1. Robot nie może skrzywdzić człowieka ani przez zaniechanie działania dopuścić, aby człowiek doznał krzywdy.
2. Robot nie może skrzywdzić ludzkości lub poprzez zaniechanie działania doprowadzić do uszczerbku dla ludzkości.
3. Robot musi być posłuszny rozkazom człowieka, chyba że stoją one w sprzeczności z Pierwszym Prawem.
4. Robot musi chronić samego siebie, o ile tylko nie stoi to w sprzeczności z Pierwszym, Drugim lub Trzecim Prawem.

Dość szybko podniosły się głosy, iż prawa te są asymetryczne, nie szanują robotów, które są przecież inteligentne (lub mają być) i nie są dostosowane do sytuacji koegzystencji ludzi z nimi. Co więcej, te prawa nie pozwalają na uzyskiwanie przewagi nad innymi ludźmi przy wykorzystaniu robotów, a przecież roboty pierwotnie tworzone były głównie do celów wojskowych, czyli zabijania. Powstały nowe prawa, które niejako pozwoliły ludziom budować i wykorzystywać roboty do różnych celów, również przeciwko człowiekowi. Minęło 80 lat. Mamy – my, ludzkość i każdy z nas – dużo więcej doświadczeń z robotami, z ich zastosowaniami, ale przede wszystkim wiemy dużo więcej o sobie samych, o tym co potrafimy zrobić drugiemu człowiekowi, zwłaszcza konkurując z nim czy nienawidząc go, i jak konsekwencje tych zachowań wzmacnia technologia, np. sztuczna inteligencja.

Dzisiejszy często nadmierny optymizm i ufność wobec robotyzacji i technologii, szczególnie informatycznych, powoduje, iż nie dostrzegamy jak skomplikowane budujemy zależności niszcząc relacje i jak to wpływa na nasze życie społeczne. Wszechpanujący techno-optymizm powoduje, iż skupiamy się na tym, jak za pomocą coraz to bardziej zaawansowanej technologii rozwiązać najbardziej palące problemy, zamiast działać długofalowo i zastanowić się, jak zapobiegać ich powstawaniu i rozwijać ludzi. Pojawiają się problemy socjologiczne, tracimy kontakt z ludźmi, podporządkowując nasze działania poprawie wydajności systemów i urządzeń, efektywności procesów i produktywności ludzi. Niby ma to działać na ich korzyść i im pomagać, ale oni czują, że jest to przeciw nim.

W 2017 roku na konferencji Future of Life Institute ustalono zasady, którymi powinni posługiwać się badacze AI (są na stronie tej organizacji www.futureoflife.org), do dzisiaj podpisali się pod nimi tacy goście jak Stephen Hawking, Mustafa Suleyman (współtwórca DeepMind), Ray Kurzweil, Tom Gruber (Apple Siri), Elon Musk i 2500 innych osób. Jakie to punkty? Wymienię tylko 2 pierwsze z 23.

1. Celem badań nad sztuczną inteligencją nie powinno być stworzenie nieukierunkowanej inteligencji, lecz inteligencji, która przysłuży się człowiekowi.
2. Inwestycjom w sztuczną inteligencję powinno towarzyszyć finansowanie badań nad zapewnieniem jej korzystnego dla ludzi działania, jak również poszukiwanie odpowiedzi na drażliwe pytania:

• Jak zapewnić przyszłym systemom AI odpowiednio dużą odporność, aby robiły co chcemy i nie ulegały awariom i atakom hakerów?
• Jak zwiększyć dobrobyt za pomocą automatyzacji, nie odbierając przy tym ludziom ich możliwości i poczucia sensu życia?
• Jak aktualizować nasz system prawny, aby stawał się bardziej sprawiedliwy oraz wydajny i mógł dotrzymać kroku rozwojowi IT, a zarazem radził sobie z zagrożeniami związanymi z AI?
• Jakiemu systemowi wartości powinny podlegać systemy AI i jak należy rozpatrywać ich status etyczno-prawny?

To są wskazówki dla badaczy i twórców AI, ale przecież są to też wskazówki dla każdego decydenta w firmie, który „zatrudnia” sztuczną inteligencję czy roboty, w tym RPA: patrz na to, co te technologie robią ludziom, twoim pracownikom. Jeśli będziesz patrzył tylko w czym ich zastępują, otworzysz drogę istotom, które ostatecznie również ciebie zastąpią.

Ufność nieuzasadniona

Dzisiejszy często nadmierny optymizm i ufność wobec robotyzacji i technologii, szczególnie informatycznych, powoduje, iż nie dostrzegamy jak skomplikowane budujemy zależności niszcząc relacje i jak to wpływa na nasze życie społeczne. Wszechpanujący techno-optymizm powoduje, iż skupiamy się na tym, jak za pomocą coraz to bardziej zaawansowanej technologii rozwiązać najbardziej palące problemy, zamiast działać długofalowo i zastanowić się, jak zapobiegać ich powstawaniu i rozwijać ludzi. Pojawiają się problemy socjologiczne, tracimy kontakt z ludźmi, podporządkowując nasze działania poprawie wydajności systemów i urządzeń, efektywności procesów i produktywności ludzi. Niby ma to działać na ich korzyść i im pomagać, ale oni czują, że jest to przeciw nim, że podejmowane projekty służą nielicznym uzyskującym przewagę technologiczną.

Z analizy m.in. raportu „The Changing Wealth of Nations 2018” World Bank Group wynika, iż nastąpiły znaczące zmiany w bogactwie krajów, ale nierówności na świecie rosną. Bogacą się bogaci z dostępem do technologii, a biedni – poza nielicznymi wyjątkami – biednieją. Nie jest też prawdą, że znikną jedne prace i zawody, ale powstaną inne, więc nie ma co martwić się. Owszem, powstaną nowe zawody i stanowiska, ale to będzie ułamek tej liczby zawodów i stanowisk, które znikną. Ponieważ – co jest nowością – sztuczna inteligencja jest w stanie zastąpić ludzi w prawie każdym zawodzie, czy to starym czy nowym. Wielu, którzy stracą pracę, do nowej się nie dostosuje i sobie nie poradzi. Tak było przy każdej przełomowej zmianie, ale tak nie musi być tym razem, jeśli na czas o nich – o sobie – pomyślimy.

Przyszłość technologii IT i robotyki powinna należeć do rozwiązań, które działają zgodnie z naszymi potrzebami, ale nie stoją w sprzeczności z potrzebami innych. Nie traktujmy technologii XXI wieku jak każdego innego narzędzia, które do tej pory mieliśmy. Budujemy rozwiązania, które działają samoczynnie, automatycznie, ale inteligentnie. Mają więc swoją podmiotowość. Żadne narzędzie dotąd jej nie miało. Dzisiaj mówimy o zrównoważonym rozwoju mając na myśli innych interesariuszy niż kapitał, ale nie ma tam sztucznej inteligencji. Może już czas, aby ją dołączyć do tego grona? Może trzeba sformułować na nowo zasady i interesariuszy zrównoważonego rozwoju?

Kluczowe w rozwiązaniach przyszłości powinny być elementy zapewniające wsparcie, a nie zastępowalność ludzi, wsparcie poprzez wygodne oraz bezpieczne interakcje, koegzystencję i współpracę. Jeśli nie podążymy tą drogą, nasza inteligencja będzie słabnąć, nasze umiejętności maleć, ale nasze pragnienia pozostaną w coraz większym stopniu niezaspokojone, co doprowadzi do frustracji, a przecież stworzone przez nas technologie nie będą widziały potrzeby ich zaspokajania.

Bartosz Radziszewski,
jest partnerem Business Dialog, współzarządzającym Klubem Dyrektorów Finansowych „Dialog”, autorem programu Digital Finance Excellence www.dfe.org.pl

Artykuł ukazał się na łamach wydania jubileuszowego Magazynu ITwiz – 30 lat transformacji branży IT w Polsce.

Tagi

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *