CDOPolecane tematy

Nie jesteśmy jeszcze gotowi na budowę relacji z robotami

Z prof. Agnieszką Wykowską, Principal Investigator of the Research Line Social Cognition in Human-Robot Interaction w Istituto Italiano di Tecnologia w Genui, rozmawiamy o specyfice przeprowadzanych badań dotyczących społecznego aspektu interakcji człowieka z robotami; o tym czy potrzebne nam są – i do jakich zastosowań – roboty humanoidalne; czy jesteśmy już gotowi na budowanie relacji z robotami i kto prawdopodobnie będzie radził sobie w nich lepiej; o robocie iCub, który jest pomocny przy badaniu rozwoju ludzkich mechanizmów poznawczych, a także o rozwoju algorytmów AI w kontekście robotyki i o tym czy roboty będą miały kiedyś taki sam status osobowości jak ludzie.

Nie jesteśmy jeszcze gotowi na budowę relacji z robotami

W Instytucie Technologii w Genui koordynuje Pani pracę laboratorium zajmującego się społecznym aspektem interakcji człowieka z robotami – na czym dokładnie polegają takie badania?

To, co nas głównie interesuje w badaniach to strona człowieka, czyli to w jaki sposób działają mechanizmy mózgowe, poznawcze w trakcie interakcji z robotem. Na ile są one podobne do mechanizmów uruchamianych podczas interakcji z innym człowiekiem i na ile są to faktycznie mechanizmy społeczne. Badamy też czy występują indywidualne różnice w podejściu do interakcji z robotem oraz to jakie mechanizmy się wtedy uruchamiają.

Jakie są obecnie najważniejsze wnioski z Państwa badań?

Główny wniosek jest taki, że ludzie bardzo się różnią. Są osoby, które podchodzą do interakcji z robotem w sposób mocno społeczny, a znowuż inne traktują go jak jakąkolwiek inną maszynę. Póki co nie wiemy jednak skąd biorą się te różnice. Na pewno częściowo z doświadczenia, tzn. ktoś kto ma większe doświadczenie w obcowaniu z robotem będzie go traktował jako maszynę czy rodzaj artefaktu.

Natomiast to, co nas najbardziej zafascynowało w trakcie badań to obserwacja, z której wynika, że jesteśmy w stanie – na podstawie aktywności neuronalnej mózgu – rozpoznać czy dana osoba będzie miała do niego właśnie podejście społeczne czy też będzie traktować go intencjonalnie lub jak – wspomnianą – zwykłą maszynę.

Co to tak naprawdę oznacza i dlaczego to odkrycie jest tak ważne?

Jest ono ciekawe z fundamentalnego punktu widzenia nauki. To fascynujące, że potrafimy wykryć nastawienie danej osoby nawet przed zaangażowaniem w konkretne zadanie. Osoba taka nie wie zatem jakie zadanie będzie wykonywać, a my jesteśmy już w stanie zidentyfikować neuronalne korelaty jej nastawienia wobec robotów. Kiedyś w przyszłości, kiedy nasze badania zostaną (mam nadzieję) wielokrotnie powtórzone z dodatkowymi manipulacjami eksperymentalnymi, będziemy np. w stanie przewidzieć nastawienie osób w trakcie interakcji.

Z jednej strony ludzie traktują roboty przemysłowe jako rozwiązanie bardzo przydatne przy produkcji, a z drugiej strony boją się ich, że np. stracą przez nie pracę. Czy podobnie wygląda podejście ludzi do robotów humanoidalnych?

Rzeczywiście występuje lęk, że roboty kiedyś nas zastąpią, a nawet zdominują całą planetę. Obawa ta napędzana jest głównie przez popkulturę – filmy czy książki science fiction. Ale to naszym zadaniem, naukowców, jest przeciwdziałać takim popkulturowym „hype’om” i starać się tłumaczyć społeczeństwu, że do spełnienia podobnych wizji jest jeszcze bardzo daleka droga. Ponadto, naszym celem jest działać w tym kierunku, aby roboty pomagały nam w tych dziedzinach życia, w których tylko się da. Natomiast nie potrafię sobie wyobrazić, aby mogłyby one nas, ludzi, kiedykolwiek zastąpić.

Czy w ogóle potrzebne nam są roboty wyglądające jak człowiek? W jakich zastosowaniach by się sprawdziły?

To jest bardzo dobre pytanie. Istnieją co najmniej dwa powody, świadczące o tym, że roboty humanoidalne są nam potrzebne. Po pierwsze – z punktu widzenia społecznego – na pewno humanoidalny kształt bardziej pomaga ludziom zaadaptować się do takich robotów. Trudno jest bowiem wejść w jakąkolwiek interakcję społeczną, jeśli robot nie ma oczu, rąk czy dłoni do manipulacji przedmiotami. Dużo łatwiej jest przecież podać dowolny przedmiot maszynie, która wyposażona jest w dłonie podobne moim. Nauczenie się nowej funkcjonalności maszyny, która ma inny, niehumanoidalny kształt, jest na pewno dużo trudniejsze. Zatem z punktu widzenia interakcji społecznej ma to ogromne znaczenie, np. biorąc pod uwagę roboty, które mają w przyszłości pomagać starszym ludziom czy też wspomagać edukację.

Drugi powód wynika z czysto pragmatycznego, inżynieryjnego punktu widzenia. Otóż nasze codzienne środowisko, gdzie mieszkamy czy pracujemy, stworzone zostało oczywiście pod kątem człowieka, więc jeśli robot ma się w nim odnaleźć i mieć choćby ogólną funkcjonalność to humanoidalny kształt będzie mu w tym środowisku bardzo pomagał. Łatwiej wejdzie po schodach, sięgnie po coś na półkę, zmieści się między dwoma stolikami w restauracji itd.

Czy ludzie odwzajemniają zachowanie robotów w takim samym stopniu jak w relacji człowiek-człowiek? Czym różnią się te relacje?

Niestety, nie potrafię jeszcze odpowiedzieć na to pytanie. Cały czas przeprowadzimy badania, aby znaleźć na nie odpowiedź. Na pewno do jakiegoś stopnia nasz mózg odbiera te zachowania – relacje z robotem – w podobny sposób, jak relacje z innymi ludźmi. A więc na podstawie takich zupełnie automatycznych mechanizmów typu – gdy robot popatrzy i przesunie głowę w lewą stronę, to ja też popatrzę w lewo, tak jak zrobiłabym to w relacji z innym człowiekiem. Nasze badania pokazują również, że sam kontakt wzrokowy z robotem istotnie wpływa na to, jaką ludzie podejmują decyzję przy danym zadaniu albo też, gdzie akurat kierują uwagę. Jeśli natomiast popatrzeć na to zagadnienie zupełnie z zewnątrz, to oczy robota są tylko dwiema kamerami i fakt ten nie powinien przecież wpływać w jakikolwiek sposób na nasze społeczne mechanizmy. A jednak wpływa.

Dlaczego tak się dzieje?

Wynika to właśnie z tego, że gdzieś na zupełnie podstawowym poziomie mechanizmy te są automatycznie uruchamiane. Mamy jako ludzie ogólną tendencję do antropomorfizmu i jeżeli robot tylko wygląda podobnie jak człowiek, to te mechanizmy po prostu się uruchamiają.

Czy prowadzi się badania jacy ludzie lepiej radzą sobie z robotami – np. biorąc pod uwagę płeć, wiek czy kulturę, z której pochodzą?

Nie ma jeszcze systematycznych badań, które mogłyby jednoznacznie na nie odpowiedzieć, ale są to na pewno faktory, które próbujemy zrozumieć. To co dotychczas udało nam się zauważyć to choćby fakt wpływu edukacji. Im człowiek jest bardziej wykształcony, tym bardziej będzie traktować robota jak maszynę. Wraz z wyższym wykształceniem rozumiemy więc choćby to w jaki sposób robot został skonstruowany. Z kolei, jeśli widzimy robota w laboratorium i nie bardzo wiemy w jaki sposób on funkcjonuje to pierwszym, automatycznym sposobem na tłumaczenie sobie tego co on robi, jest wspomniane już podejście antropomorficzne.

W jednym z naszych badań zaobserwowaliśmy, że kobiety mają generalnie większą tendencję do traktowania robotów humanoidalnych jako istoty społeczne. Było to jednak zaledwie jedno przeprowadzone badanie i musielibyśmy je jeszcze kilka razy powtórzyć, aby ocenić czy tak rzeczywiście jest. Natomiast jeśli chodzi o aspekty kulturowe to wciąż je badamy i nie mamy jeszcze żadnych sprecyzowanych spostrzeżeń, ale intuicja podpowiada mi, że one też na pewno mają wpływ na sposób postrzegania robotów.

Czy więc np. Azjaci, choćby z racji tego, że są bardzo mocno technologicznie rozwinięci, będą mieli bardziej przyjazne podejście do robotów?

Oni rzeczywiście mają większą styczność z robotami i są one na pewno bardziej widoczne w ich kulturze. Są więc zapewne większymi ich entuzjastami. Jednak z drugiej strony, może też być tak dlatego, że gdzieś bardzo głęboko kulturowo – sięgając np. do religii dominujących w Azji – Azjaci nie mają tak mocno zakorzenionego dualizmu kartezjańskiego jaki występuje w kulturach europejskich. A więc tego, że ciało i dusza to dwa odrębne byty. To powoduje, że u nas, w kulturze Zachodniej, być może koncept robota jest bardziej oddzielony od konceptu duszy czy umysłu. W kulturach Wschodu była i jest natomiast dużo większa tendencja do odnajdywania spirytualizmu nie tylko w człowieku. Duszę może mieć też np. jakiś przedmiot czy natura, dlaczego więc nie robot? Ale to są – póki co – wyłącznie hipotezy.

Czy jesteśmy już gotowi na budowanie relacji z robotami? Jak one powinny wyglądać? Jakie umiejętności powinniśmy rozwijać w tym kontekście?

Na pewno nie jesteśmy jeszcze gotowi na budowanie relacji. Wciąż występuje zbyt dużo lęków zakorzenionych w ludziach. A co do umiejętności, które powinniśmy rozwijać w robotach? Ciężko jest mi odpowiedzieć na to pytanie. Na pewno bardzo ważne jest to, w jakim kontekście ten robot ma się znajdować. Myślę, że nie będziemy tworzyć takich samych robotów przeznaczony dla wszystkich możliwych kontekstów. Jeśli np. robot będzie miał pomagać osobom starszym, będzie miał zupełnie inną funkcjonalność i będzie musiał być bardziej społeczny niż ten, który ma np. udzielać nam informacji na lotnisku czy wspierać personel medyczny i mierzyć choremu temperaturę.

Ta społeczna rola robotów ma właśnie pomóc w przypadkach pomocy ludziom starszym czy też dzieciom. Obecnie prowadzimy np. badania odnośnie tego czy roboty humanoidalne mogą pomóc dzieciom z autyzmem. I póki co zgromadzone przez nas dane pokazują, że jest na to duża nadzieja. Dzieci bowiem bardzo entuzjastycznie otwierają się na relacje z robotem. W ogóle się go nie boją. Lgną do niego i dużo chętniej biorą udział w terapii z nim niż z terapeutą. Mieliśmy niedawno taki przypadek, że jedna z dziewczynek biorących udział w tych badaniach powiedziała: „Jesteś moim najlepszym przyjacielem”.

Przykład ten mógłby świadczyć o tym, że dzieci nie traktują robotów jako zabawki tylko coś więcej…

Tak, ale żeby takie wnioski wyciągnąć musiałbym mieć jednak dużo więcej twardych danych – a ten przykład to zaledwie jedna, zaobserwowana anegdota. Natomiast dane, które mamy do tej pory zebrane są jeszcze bardzo wstępne. Rzeczywiście obiecujące, ale jednak wciąż jest zbyt wcześnie, aby przedstawiać konkretne wnioski.

Na pewno natomiast nie mieliśmy ani jednego dziecka, które odczuwałoby strach przed robotem humanoidalnym. I to jest bardzo ciekawe, bo wcześniej np. robiliśmy badania z takim malutkim robotem-zabawką Cozmo (Digital Dream Labs), który przypomina trochę tego z filmu „Wall-E” i okazało się, że niektóre dzieci bardzo się go bały.

Z czego mogłoby to wynikać? W końcu iCub – robot, z którym pracuje Pani na co dzień – jest np. dużo większy niż Cozmo?

Ciężko mi stwierdzić czemu akurat tak się działo. Być może Cozmo jest zbyt szybki w swych ruchach i za bardzo ekspresywny. Nasz iCub jest w końcu bardzo powolny, a nawet ospały.

Skoro jesteśmy przy iCubie. Co potrafi on robić?

Jeżeli chodzi o autonomię tego robota to trzeba pamiętać, że jest on wyłącznie platformą do badań. To nie jest robot komercyjny przystosowany do funkcjonowania w naturalnym środowisku człowieka poza laboratorium. iCub, który powstaje w naszym instytucie, ma być przede wszystkim modelem pomocnym przy badaniu rozwoju ludzkich mechanizmów poznawczych. Modelujemy więc na nim sztuczną inteligencję, z tego powodu, że robienie tego na komputerze, który nie posiada rąk, nóg i ciała nie pozwoliłoby zmodelować wielu z mechanizmów z prostego powodu – braku interakcji z otoczeniem. iCub potrafi więc np. rozpoznawać przedmioty i manipulować nimi. Obecnie trwają prace nad tym, aby potrafił chodzić. Są one dość skomplikowane, bo takie kwestie jak lokomocja czy balansowanie to konkretne wyzwania od strony inżynieryjnej.

Do jakich innych zastosowań społecznych, poza tymi zdrowotnymi, mogłyby być wykorzystywane roboty humanoidalne?

Jeśli chodzi o naszego robota, to właśnie trwają badania czy mógłby on mieć potencjalne zastosowanie jako robot pomocny przy poszukiwaniach – np. gdy zawali się budynek i ktoś zostanie uwięziony pod gruzami. Ze względu na swój humanoidalny kształt oraz zdolności mógłby chwytać przedmioty, przenosić je, a więc np. pomagać przy odgruzowywaniu.

Wrócę jeszcze raz do zasadniczej kwestii – czy roboty będą miały kiedykolwiek taki sam status osobowości jak ludzie i staną się w pełni autonomiczne, a więc będą podejmować samodzielne decyzje?

Do tego na pewno jeszcze bardzo długa droga. A czy jest to w ogóle możliwe? Ciężko nawet stwierdzić, które z rozwiązań technologicznych mogą nam w tym pomóc, albo i nie. Obecnie brakuje choćby jeszcze bardzo dużo, jeśli chodzi o ogólnie pojmowaną sztuczną inteligencję, która jest generalizowana do różnych problemów. Współczesne aplikacje AI wykonują przecież konkretne zadania. Sztuczna inteligencja potrafi nas ograć w szachy albo rozpoznawać twarze, ale nie jest w stanie zrobić obu tych rzeczy. Aby zaś robot był autonomiczny, musi mieć taką bardzo ogólną sztuczną inteligencję, która będzie w stanie poradzić sobie ze wszystkimi problemami, które występują wokół nas.

A czy jest zauważalny jakiś kierunek, w którym zmierza obecnie rozwój sztucznej inteligencji w kontekście robotyki?

Na pewno próbujemy wciąż – mówiąc kolokwialnie – „ożenić” robotykę ze sztuczną inteligencją typu Machine Learning i Deep Learning na wyższym poziomie. Jednak w momencie, gdy wprowadza się w robota różnego rodzaju rozwiązania algorytmiczne, praktycznie natychmiast okazuje się, że pojawia się masa problemów, o których nawet nam się nie śniło. Choćby rozpoznawanie twarzy przebiega w zupełnie inny sposób, jeśli algorytm uczy się to robić na podstawie bazy danych w internecie, a zupełnie inaczej, jeśli tak baza jest w 3D i dotyczy środowiska naturalnego, gdzie np. zmienia się kąt padania światła na twarz. Te problemy stają się więc wciąż dużo, dużo bardziej skomplikowane.

Jak – w kontekście tego, co Pani powiedziała – można odnieść się do trzech praw robotyki Asimova?

Że będą one być może kiedyś aktualne, o ile roboty zaczną być bardziej autonomiczne. Ale nie nastąpi to szybko, bo póki co trzymamy je głównie w laboratoriach.

Tagi

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *