Wywiad - 30 lat branży IT

Długofalowo z rozwiązań AI skorzystają wszyscy

Z dr Aleksandrą Przegalińską-Skierkowską, doktorem w dziedzinie filozofii sztucznej inteligencji w Zakładzie Filozofii Kultury Instytutu Filozofii Uniwersytetu Warszawskiego, adiunktem w Katedrze Zarządzania w Społeczeństwie Sieciowym w Akademii Leona Koźmińskiego; prowadzącą badania w Massachusetts Institute of Technology w Bostonie rozmawiamy o sztucznej inteligencji; potencjale zastosowań tego typu rozwiązań; wiążących się z tym szansach i zagrożeniach, w tym przechyle algorytmicznym; transhumaniźmie; zmianach na rynku pracy; interakcji człowieka z maszyną i kobotyce.

Długofalowo z rozwiązań AI skorzystają wszyscy

Jednym z ważniejszych zagrożeń związanych ze sztuczną inteligencją jest tzw. przechył algorytmiczny. Mówimy o nim chociażby wtedy, kiedy sztuczna inteligencja ma np. diagnozować cukrzycę. System, który oparty jest na danych amerykańskich, zostaje zakupiony przez jakiś europejski podmiot. A ponieważ cukrzyca jest znacznie większym problemem w Stanach Zjednoczonych niż w Europie, okazuje się, że system ma wadliwe dane, nieprzystające do tej populacji. W efekcie będzie on źle diagnozował i popełniał błędy, których skutki mogą być bardzo negatywne. Podobnie sytuacja wygląda wówczas, gdy system dyskryminuje pewne grupy społeczne, np. gdy ktoś zamieszkujący biedną lub znaną z przestępczości dzielnicę nie dostanie przez to kredytu.

Jakie są obecnie trendy w cyfrowym świecie związane ze sztuczną inteligencją?

Jednym z istotniejszych trendów jest wykorzystanie AI w obsłudze konsumenta. Mam tu na myśli różne systemy rekomendacyjne czy rozwiązania personalizacyjne. To są właśnie efekty pracy uczenia maszynowego, zarówno nadzorowanego, jaki i nienadzorowanego. W przyszłości robienie zakupów – zwłaszcza online – będzie się opierało na szeroko zakrojonym badaniu preferencji. To właśnie system sztucznej inteligencji wychwytuje korelacje czy podobieństwa pomiędzy różnymi produktami, ich ceną i jakością, i proponuje kolejne produkty. Ten trend jest bardzo wyraźny i będzie wciąż postępował, także w innych sektorach. Kolejny trend to upowszechnienie się rozwiązań z zakresu telemedycyny oraz diagnostyki opartej na sztucznej inteligencji. Innym, znaczącym obszarem, w którym wykorzystywana jest sztuczna inteligencja to logistyka. Mam tu na myśli sprawdzanie ładunków, ich wolumenu, czy optymalizacja realizacji zamówień. AI podpowiada jak w najbardziej efektywny sposób przewieźć czy spakować towary. Te trzy obszary są najbardziej istotne.

Z jakimi szansami wiąże się cyfryzacja?

Szans jest bardzo dużo, choćby diagnostyka, którą wykonuje sztuczna inteligencja. Może być ona bardziej precyzyjna niż ta dokonywana przez lekarza. Inny przykład dotyczy sektora finansowego, gdzie zastosowanie sztucznej inteligencji pozwala bardzo szybko wykryć wyłudzenia i oszustwa – tzw. fraud – dokonywane na naszym koncie bankowym czy przy użyciu naszej karty płatniczej. Możemy więc AI wykorzystywać do systemów ostrzegania.

A na co powinniśmy szczególnie uważać?

Jeśli chodzi o zagrożenia, niestety jest ich bardzo dużo. Systemy sztucznej inteligencji są danochłonne. Z jednej strony AI potrzebuje tych danych coraz więcej, aby lepiej działać. Z drugiej zaś, rozwiązania z zakresu sztucznej inteligencji nie zawsze opierają się na danych najlepszych. Różnymi metodami są one również pozyskiwane i coraz częściej ludzie są tym zaniepokojeni. Niekoniecznie musi nam się podobać fakt, że Facebook włącza co i rusz na Messangerze mikrofon, aby słuchać w jaki sposób mówimy. Celem jest co prawda poprawa systemu rozpoznawania mowy, ale ludzie czują, że to jest nie w porządku. To samo robi zresztą robot Alexa, który często losowo włącza się, aby nagrywać próbki naszej mowy. Z etycznego punktu widzenia jest to mocno problematyczne. Okazuje się bowiem, że prywatność jest w pewien sposób zagrożona. I sami użytkownicy czują się zagrożeni będąc podsłuchiwanymi we własnych domach.

A co z kwestią prywatności i ewentualnego wycieku danych?

Jest to rzeczywiście duże zagrożenie, jeśli chodzi o sztuczną inteligencję. Zresztą te problemy nie są nowe. Proszę sobie przypomnieć skandal w 2016 roku z Cambridge Analytica i stosowanie mikrotargetingu w kampaniach politycznych. W tym wypadku mieliśmy do czynienia z ewidentnym, nielegalnym pozyskiwaniem danych. I właśnie nielegalny obrót wrażliwymi danymi jest na pewno ogromnym wyzwaniem dla sztucznej inteligencji. Kolejnym jest tzw. przechył algorytmiczny.

Czym jest przechył algorytmiczny?

Mówimy o nim chociażby wtedy, kiedy sztuczna inteligencja ma np. diagnozować cukrzycę. System, który oparty jest na danych amerykańskich, zostaje zakupiony przez jakiś europejski podmiot. A ponieważ cukrzyca jest znacznie większym problemem w Stanach Zjednoczonych niż w Europie, okazuje się, że system ma wadliwe dane, nieprzystające do tej populacji. W efekcie będzie on źle diagnozował i popełniał błędy, których skutki mogą być bardzo negatywne. Podobnie sytuacja wygląda wówczas, gdy system dyskryminuje pewne grupy społeczne, np. gdy ktoś zamieszkujący biedną lub znaną z przestępczości dzielnicę nie dostanie przez to kredytu. To jest oczywiście niezgodne z prawem i za taki przechył algorytmiczny można obecnie zostać pozwanym, ale takie systemy niestety już działają.

Skoro sztuczne sieci neuronowe są wielowarstwowe i kompleksowo przetwarzają informacje, a my nie możemy „zajrzeć do środka”, to powinny zostać stworzone inne systemy, które przepisywałyby je na trochę prostsze. Pozwalałyby tym samym zrozumieć człowiekowi co się tak naprawdę stało. Czyli tacy AI Supervisors. Interakcja jednego systemu z drugim. Od takiego rozwiązania, do przyszłości, w której systemy optymalizują własny kod pewnie droga nie jest daleka. Niebawem będziemy mieli takie rozwiązania. Uważam natomiast, że powinna to być dyscyplina mocno regulowana.

Czy nie jest czasem tak, że współczesna technologia jest zbyt inwazyjna i za mocno ingeruje w nasze życie? W jednym z tekstów wspomina Pani o transhumanizmie, który zyskuje dużo zwolenników w Dolinie Krzemowej…

Owszem jest wielu ludzi w Dolinie Krzemowej, którzy wierzą, że sztuczna inteligencja czy inne wysoko rozwinięte technologie przyniosą ludziom bardzo dużo dobrego. Oni oczywiście mają sporo racji, bo technologie – w różnych dziedzinach życia – takie pozytywne działania już pokazują. Natomiast nie ma co łudzić się, że złe strony technologii – dotyczące choćby wspomnianego przeze mnie wcześniej przechyłu algorytmicznego, czy też tego, że człowiek w pewnym sensie oddaje kontrolę nad swoimi działaniami – też występują. Przykładowo wiemy, że lekarze za bardzo zdają się na pewne systemy diagnozujące. Ufają im, więc mniej je kontrolują, a one mogą przecież podawać błędne wyniki. Podobnie z systemami wspierającymi sędziów przy wydawaniu wyroków. Ludziom niestety brak jest w takich wypadkach krytycznego podejścia. Nie kwestionują tych wyborów ufając takim systemom bezwzględnie. To jest rzeczywiście duży problem.

Wydaje mi się, że ludzie powinni być bardziej kompetentni, jeżeli chodzi o różne dziedziny sztucznej inteligencji. To człowiek winien ostatecznie decydować i sprawdzać wyniki analiz AI. Jeśli tej postawy zabraknie, to faktycznie – tak, jak Pan sugeruje – pójdzie to wszystko za daleko, a my będziemy funkcjonować jak to posłuszne stado owiec…

Oczywiście warto korzystać ze sztucznej inteligencji, ale w momencie, kiedy całkowicie stracimy kontrolę nad tym procesem, można sobie zadać pytanie właściwie po co to wszystko? Czy człowiek nie ma już w tym świecie nic do powiedzenia? Na pewno nie o taką przyszłość nam chodzi. Ludzie z Doliny Krzemowej, którzy mają takie, bardzo pozytywne podejście do technologii, są w swoich postawach nadmiernie zafiksowani. Za bardzo zachwycają się technologią, nie potrafiąc w sposób rzetelny ocenić tego, gdzie jest jej miejsce, a gdzie jest miejsce człowieka, człowieka, dla którego ostatecznie technologia powinna być przecież narzędziem.

Czy zatem sztuczna inteligencja może wymknąć się nam spod kontroli, powstanie tzw. osobliwość technologiczna, czyli punkt w czasie, gdy sztuczna inteligencja przewyższy nas intelektualnie?

Są dwie odpowiedzi na to pytanie. Osobiście nie wierzę w narrację o osobliwości, że ona szybko nastanie, a AI stanie się autonomiczna. Uważam, że wciąż jest zbyt dużo ograniczeń technologicznych. Wciąż jesteśmy jeszcze na bardzo wczesnym etapie rozwoju tej dziedziny. Te wszystkie bajki, że za 20 lat, w pełni autonomiczny robot – mający wszystkie poziomy ludzkiej inteligencji – pobije wszelkie zdolności człowieka, wydają mi się kompletnie fantastyczną opowieścią. Opowieścią, która ma nas ekscytować, ale ma też niewiele wspólnego z tym, gdzie ta dziedzina ma zajść w tym czasie. Środowisko naukowe ma co do tego chyba jednoznaczne stanowisko – tak się nie stanie.

Ale to nie oznacza, że sztuczna inteligencja nie może być szkodliwa. Jeśli Pan myśli, że ona może wymknąć się spod kontroli właśnie w tym kontekście, że ludzie nagle narzędziom – np. prostemu uczeniu maszynowemu – zaczną ufać bardziej niż sobie samym, to oczywiście istnieje taka obawa. Podobnie, jeśli człowiek zdecyduje się stworzyć broń autonomiczną i to ona będzie decydować kogo zabijać na polu walki, a kogo oszczędzić, a takie koncepcje rodzą się obecnie. To też rodzi wiele pytań o to, jaką człowiek bierze odpowiedzialność za procesy, które sam wywołuje. W tym wypadku za wojny właśnie. I jaką ma nad tym kontrolę? Wydaje mi się, że żadną albo znikomą. Reasumując, nie trzeba wojskowego systemu obronnego na miarę Skynet z serii filmów o Terminator, aby stracić kontrolę.

W jakim kierunku będzie zmierzał rozwój sztucznej inteligencji? Czy to będzie tylko asystowanie człowiekowi w wybranych dziedzinach życia, czy też przejmie ona nasze kompetencje w jeszcze większym zakresie?

Gdybym odpowiadała na to pytanie jakiś czas temu to powiedziałabym, że tak, widzę taki trend przejmowania kompetencji. Jednak w ostatnich latach sporo się zmieniło i teraz bardzo dużo mówi się o współpracy między człowiekiem a maszyną, czyli kobotyki.

Czym jest kobotyka?

Kobotyka to forma odpowiedzi na pełną automatyzację. Zatem zamiast niej mówi się obecnie o tworzeniu wspólnych miejsc pracy dla maszyn i ludzi. Człowiek będzie wspierany przez maszyny w tych pracach, w których trochę gorzej sobie radzi. Będzie on więc od holistycznego oglądu, kontroli i decyzji, a sztuczna inteligencja wykona skomplikowane obliczenia albo ciężkie prace fizyczne.

Oczywiście rynek pracy będzie się zmieniał pod wpływem sztucznej inteligencji, ale docelowo na pewno nie chodzi nam o to, aby zbudować maszyny, które mają człowieka zastąpić w większości wykonywanych zadań. Takie silenie się na automatyzację w każdej dziedzinie – np. przy pracach manualnych – jest bez sensu i nie sądzę, abyśmy obecnie w tę stronę szli. Automatyzacja nie będzie polegać na tym, że wszystkie proste, niskopłatne prace zostaną natychmiast wyeliminowane. To tak nie działa. Myślę, że sztuczna inteligencja będzie raczej wspierać księgowych czy analityków finansowych, a więc ludzi, którzy pracują umysłowo.

Czy i jak powinniśmy się więc przygotować do nadchodzących zmian?

Zawsze powinniśmy być gotowi na zmiany. Są jednak takie, na które przygotować się nie jesteśmy w stanie. Ciężko bowiem ocenić jak szybko proces kobotyzacji czy automatyzacji będzie przebiegał. Na pewno natomiast warto – jeżeli takie narzędzia są dostępne – zapoznawać się z nimi. Dotyczy to więc uczenia maszynowego, analityki Big Data itd. W pewnych zawodach – jak choćby farmaceuty, chemika czy analityka finansowego – bardzo się to może przydać. I w tym sensie warto przygotowywać się na te zmiany, myśląc o tym jak sztuczna inteligencja może wesprzeć procesy w mojej pracy. Warto próbować podejść do nich z pewną ciekawością i życzliwością zanim ktoś zacznie nas do tych zmian zmuszać.

A czy realny jest według Pani tzw. gwarantowany dochód dla tych, którzy stracą pracę na rzecz maszyn?

Nie wierzę w to kompletnie. Jest zresztą bardzo wiele zastrzeżeń do tego. W jakiej np. formie miałoby to się odbywać? Wyobraźmy sobie, że 30% czy 50% społeczeństwa żyje z dochodu gwarantowanego. Ten system, który mamy obecnie – czyli produkcja dóbr – nie ma wtedy żadnej racji bytu. Dla mnie dochód gwarantowany nie pasuje do żadnej formy kapitalizmu czy postkapitalizmu. A do pewnej formy „kołchoźnictwa” chyba nie chcemy już wracać…

Systemy sztucznej inteligencji są danochłonne. Z jednej strony AI potrzebuje tych danych coraz więcej, aby lepiej działać. Z drugiej zaś, rozwiązania z zakresu sztucznej inteligencji nie zawsze opierają się na danych najlepszych. Różnymi metodami są one również pozyskiwane i coraz częściej ludzie są tym zaniepokojeni. Niekoniecznie musi nam się podobać fakt, że Facebook włącza co i rusz na Messangerze mikrofon, aby słuchać w jaki sposób mówimy. Celem jest co prawda poprawa systemu rozpoznawania mowy, ale ludzie czują, że to jest nie w porządku. To samo robi zresztą robot Alexa, który często losowo włącza się, aby nagrywać próbki naszej mowy.

To może opodatkować roboty, tak jak opodatkowuje się dziś pracowników?

Oczywiście, czym innym są zaawansowane procesy w fabrykach, gdzie automatyzacja jest duża. Można by rzeczywiście spróbować je opodatkować. Mamy wtedy bowiem pewną wartość dodatkową, która się ujawnia i możemy ją w jakiś sposób rozdystrybuować w społeczeństwie. Wykorzystując ją np. na edukację czy ochronę zdrowia. Albo dawać ludziom swego rodzaju bonifikaty. To jest zupełnie coś innego. Forma dochodu gwarantowanego pochodzącego z opodatkowania systemów AI wydaje mi się możliwa. Natomiast pełna zależność dużej części społeczeństwa od tego typu środków jest według mnie co najmniej niebezpieczna.

Kto więc będzie beneficjentem zmian, które nasz czekają?

Na pewno firmy technologiczne, które te systemy produkują.

Myślałem bardziej o ujęciu społecznym…

Społeczeństwo oczywiście też skorzysta na tych zmianach. Jeśli u lekarza zamiast diagnozy prawidłowej w 70 proc., otrzyma Pan taką, która jest trafna w 99 proc., to korzyść będzie po Pana stronie. Podobnie, gdy dostanę kredyt wymiarowany idealnie pod moje dochody i moje możliwości przy jednoczesnej analizie tego, ile mogę zarabiać za 2-3 lata oraz czy w tym czasie mogą zaistnieć jakieś czynniki makroekonomiczne – np. kryzys – które spowodują, że trudniej będzie mi ten kredyt spłacać. W takiej sytuacji również na tym skorzystam i będę miała poczucie większego bezpieczeństwa finansowego.
Długofalowo z rozwiązań sztucznej inteligencji skorzystają wszyscy. Zresztą już powoli to odczuwamy. Natomiast, jak mówiłam wcześniej, jesteśmy też podatni na różne zagrożenia. Nie można zagwarantować, że każda jednostka będzie tylko i wyłącznie beneficjentem AI. Wyobrażam sobie bowiem źle przygotowane systemy, które będą krzywdzić ludzi, choćby z powodu, wspominanego wcześniej, przechyłu algorytmicznego.

Jakiś czas temu powiedziałabym, że sztuczna inteligencja przejmie część kompetencji. Jednak w ostatnich latach sporo się zmieniło i teraz bardzo dużo mówi się o współpracy między człowiekiem a maszyną. Kobotyka to forma odpowiedzi na pełną automatyzację. Zatem zamiast niej mówi się obecnie o tworzeniu wspólnych miejsc pracy dla maszyn i ludzi. Człowiek będzie wspierany przez maszyny w tych pracach, w których trochę gorzej sobie radzi. Będzie on więc od holistycznego oglądu, kontroli i decyzji, a sztuczna inteligencja wykona skomplikowane obliczenia albo ciężkie prace fizyczne. Oczywiście rynek pracy będzie się zmieniał pod wpływem sztucznej inteligencji, ale docelowo na pewno nie chodzi nam o to, aby zbudować maszyny, które mają człowieka zastąpić w większości wykonywanych zadań.

Czy AI pokaże nam rozwiązania, których jeszcze nie znamy?

Tak i to już niedługo. Weźmy choćby prosty przykład gry w Go. Program komputerowy AlfaGo Zero wzbogacił cały jej system i pokazał, że można grać w nią w sposób ludziom jeszcze nieznany. Pamiętajmy, że zasady gry Go powstały ponad 4000 lat temu. Obecnie ten sam system optymalizuje zużycie energii na serwerach Google. I znów w zupełnie inny sposób niż ludzie robili to do tej pory, a co ważne dużo bardziej efektywnie.

Nawet w zawodach kreatywnych, gdzie ktoś komponuje muzykę czy tworzy obrazy, sztuczna inteligencja też pokazuje nowe i ciekawe perspektywy. Takiej innowacyjności czy kreatywności już dziś AI trudno odmówić. I w tym sensie myślę, że głębokie uczenie maszynowe – jako najbardziej innowacyjna dziedzina sztucznej inteligencji – będzie miała właśnie do odegrania ciekawą rolę. Będzie wychodzić poza to, co już umiemy i wiemy oraz pokazywać nam, że to, co robiliśmy do tej pory można robić inaczej.

W jakim obecnie miejscu znajdujemy się, jeśli chodzi o rozwój uczenia maszynowego?

Dopiero na samym początku. Co prawda ta dziedzina rozwija się już od ok. 10 lat, ale w mainstreamie znalazła się zupełnie niedawno, ok. 2 lat temu. Ta dyscyplina będzie się dopiero rozwijała i osadzała w konfrontacji z biznesem i realnymi problemami.

Zaawansowane procesy w fabrykach, gdzie automatyzacja jest duża, można by spróbować je opodatkować. Mamy wtedy bowiem pewną wartość dodatkową, która się ujawnia i możemy ją w jakiś sposób rozdystrybuować w społeczeństwie. Wykorzystując ją np. na edukację czy ochronę zdrowia. Albo dawać ludziom swego rodzaju bonifikaty. To jest zupełnie coś innego. Forma dochodu gwarantowanego pochodzącego z opodatkowania systemów AI wydaje mi się możliwa. Natomiast pełna zależność dużej części społeczeństwa od tego typu środków jest według mnie co najmniej niebezpieczna.

Które projekty uważa Pani obecnie za najciekawsze?

Na pewno projekty telemedyczne są bardzo ciekawe i dobrze rokujące. Jeżeli natomiast chodzi o moją „działkę”, a jest to przede wszystkim tworzenie botów i przetwarzanie języka naturalnego. Na pewno interesującym projektem jest Alexa, zarówno jako produkt naukowy, jak i wdrożeniowy. Jest to oczywiście system Amazona, ale jednocześnie taki, który można zaimplementować tak, by wchodził w interakcje z rozwiązaniami typu smart home innych producentów. Pozwala więc na gaszenie świateł czy dostosowywanie temperatury w domu do naszych preferencji.

Interesują mnie też systemy, które analizują bieżącą sytuację w otoczeniu, przetwarzają te dane i mogą reagować na nią. Nazywamy to rozumieniem kontekstu sztucznej inteligencji. Tego typu systemu wiedzą np., że w mieszkaniu jest za ciepło więc trzeba obniżyć temperaturę, a skoro jest ranek, a my jesteśmy w domu to należy zaparzyć kawę. Systemów kontekstowych będziemy widzieć wokół nas coraz więcej. Alexa jest jednym z nich.

Jak więc będzie wyglądała w przyszłości interakcja między człowiekiem a botami?

Będzie dużo bardziej kontekstowa. Może te systemy nie będą miały generalnej inteligencji i nie będą odczuwały emocji oraz nie będą miały świadomości, ale będą coraz lepiej rozumieć kontekst naszych wypowiedzi. Będą pozyskiwać coraz więcej danych z otoczenia. Będą lepiej i sprawniej z nami rozmawiać. Ta kontekstowość w sztucznej inteligencji będzie się bardzo szybko rozwijała, zwłaszcza w wypadku botów.

A czy maszyny będą programowały się same?

Do pewnego stopnia zapewne tak. Pytanie tylko na ile chcemy im na to pozwolić?

A na ile powinniśmy?

Myślę, że nie powinniśmy pozwalać im na zbyt wiele, bo istnieje ryzyko błędów. Jeśli chodzi o problem związany z wyjaśnialnością sztucznej inteligencji to pomysł na jego rozwiązanie jest następujący. Skoro sztuczne sieci neuronowe są wielowarstwowe i kompleksowo przetwarzają informacje, a my nie możemy „zajrzeć do środka”, to powinny zostać stworzone inne systemy, które przepisywałyby je na trochę prostsze. Pozwalałyby tym samym zrozumieć człowiekowi co się tak naprawdę stało. Czyli tacy AI Supervisors. Interakcja jednego systemu z drugim. Od takiego rozwiązania, do przyszłości, w której systemy optymalizują własny kod pewnie droga nie jest daleka. Niebawem będziemy mieli takie rozwiązania. Uważam natomiast, że powinna to być dyscyplina mocno regulowana.

Program komputerowy AlfaGo Zero wzbogacił system gry Go i pokazał, że można grać w nią w sposób ludziom jeszcze nieznany. Pamiętajmy, że zasady gry Go powstały ponad 4000 lat temu. Obecnie ten sam system optymalizuje zużycie energii na serwerach Google. I znów w zupełnie inny sposób niż ludzie. Nawet w zawodach kreatywnych, gdzie ktoś komponuje muzykę czy tworzy obrazy, sztuczna inteligencja też pokazuje nowe i ciekawe perspektywy. Takiej innowacyjności czy kreatywności już dziś AI trudno odmówić. I w tym sensie myślę, że głębokie uczenie maszynowe – jako najbardziej innowacyjna dziedzina sztucznej inteligencji – będzie miała właśnie do odegrania ciekawą rolę.

Istnieje ryzyko, że staniemy się niewolnikami algorytmów?

Nie chcę nawet tak mówić. Im bardziej będziemy coś takiego powtarzać, tym ludzie będą czuć się bardziej bezwolni i myśleć, że nie mogą nic na to poradzić. A tak po prostu nie jest. AI jest narzędziem dla człowieka. Może być narzędziem gorszym albo lepszym, ale na pewno nie chcemy, aby była naszym panem. Zresztą nic nie wskazuje, aby ona sama w tę stronę zmierzała. Bo ona własnego kierunku nie ma. Pamiętajmy, że AI może popełniać błędy. Jeśli więc sztuczna inteligencja sama pisze kod, czy też jedna pisze drugiej, to powinien to być w 100 proc. transparentny proces. Taki, który widzimy i rozumiemy, aby mieć nad nim kontrolę, bo jeśli tak się nie stanie, to będzie ona obarczona błędami.

Ale jest chyba taki lęk, że AI będzie sama podejmować decyzje?

Jasne, zresztą popkultura świetnie go podsyca. Hollywood uwielbia takie scenariusze i cały czas karmi nimi widzów, a ci się nimi ekscytują. Są to jednak bajki o żelaznym wilku.

A ujmując rzecz bardziej filozoficznie – czy zainteresowanie człowieka rozwojem sztucznej inteligencji wiąże się z naszą próżnością, taką chęcią bycia Bogiem-stwórcą?

Na pewno aspirujemy do takiej roli. Chcemy przecież tworzyć sztuczną inteligencję na nasze podobieństwo. Tu splecione są wątki nie tyle filozoficzne, co religijne – z jednej strony jesteśmy bowiem twórcą, ale z drugiej boimy się tego naszego stworzenia, że ono może nas przerosnąć. To mity i fundamenty religijne, na których opierają się nasze cywilizacje i one rzeczywiście w AI są wyraźnie słyszalne. To jest na pewno bardzo pociągające.

A co z etyką i bezpieczeństwem?

Ten problem stał się od niedawna bardzo istotny. Chociażby w kontekście przechyłu algorytmicznego. Problem etycznym jest bowiem to, że ktoś jest dyskryminowany w związku z podjętą przez maszynę decyzją, którą dodatkowo człowiek ślepo realizuje. Na pewno problem został już dostrzeżony. Zwłaszcza po roku 2016 doszło do pewnego przebudzenia. Ludzie uzmysłowili sobie, że potężna dziedzina jaką jest AI, może być też w swojej potędze negatywna. W związku z tym AI stała się dyscypliną, która zaczęła traktować etykę bardzo poważnie. Muszę przyznać, że gdy bywam na rozmowach u gigantów technologicznych, takich jak Microsoft czy IBM, to widzę, że problem przechyłu algorytmicznego traktowany jest poważnie. Wciąż też są takie kwestie etyczne w AI, na które nie umiemy odpowiedzieć, np. te związane choćby z autonomicznym samochodem. Reasumując, na pewno wszyscy już widzą jak poważny jest to problem i teraz czas na rozwiązania.

W przyszłości robienie zakupów – zwłaszcza online – będzie się opierało na szeroko zakrojonym badaniu preferencji. To właśnie system sztucznej inteligencji wychwytuje korelacje czy podobieństwa pomiędzy różnymi produktami, ich ceną i jakością, i proponuje kolejne produkty. Ten trend jest bardzo wyraźny i będzie wciąż postępował, także w innych sektorach. Kolejny trend to upowszechnienie się rozwiązań z zakresu telemedycyny oraz diagnostyki opartej na sztucznej inteligencji. Innym, znaczącym obszarem, w którym wykorzystywana jest sztuczna inteligencja to logistyka.

Poza uczeniem maszynowym zajmuje się Pani również technologiami ubieralnymi. Jak wygląda rzeczywistość, jeśli chodzi o tę dziedzinę?

Podobnie jak z AI, jesteśmy na początku drogi. Dziedzina ta będzie się na pewno bardzo mocno rozwijała. Sensorów przybywać ma z roku na rok. Smartfon ma coraz więcej funkcjonalności takich, jak np. śledzenie wyrazu twarzy użytkownika. Takich rozwiązań będzie coraz więcej. Do tego dochodzą opaski, które mierzą coraz precyzyjniej aktywność użytkownika oraz to co się dzieje wokół niego, a także sensory w inteligentnym domu czy w inteligentnym mieście. Technologie ubieralne są bardzo ważnym segmentem IoT, ale ich potencjał objawi się dopiero wtedy, kiedy zaczną one współdziałać z innymi urządzeniami.

Czy Polska nadąża za globalnym rozwojem technologicznym?

Mamy bardzo wysokie kompetencje programistyczne. Nasi programiści niczym nie odstają od reszty świata. Są więc umiejętności programowania i jest wyobraźnia. Mamy jednak mało ambitnych, strategicznych i dużych projektów – przygotowywanych przez państwo, jednostki badawcze czy firmy komercyjne. Tego mi brakuje i mam nadzieję, że to będzie się zmieniać.

A czy widzi Pani kierunek, w którym powinniśmy się specjalizować?

Zachęcam do inteligentnego sadownictwa. Jesteśmy potentatem w tym obszarze, a wraz ze sztuczną inteligencją, moglibyśmy stworzyć naprawdę ciekawe rzeczy.

Artykuł ukazał się na łamach wydania jubileuszowego Magazynu ITwiz – 30 lat transformacji branży IT w Polsce.

Tagi

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *