CDOSztuczna inteligencjaBranża ITRynek

Google DeepMind testuje trenera życia osobistego AI

Jak informuje The Guardian[1], oparty na uczeniu maszynowym model będzie m.in. w stanie odpowiadać na pytania dotyczące relacji międzyludzkich i komunikacji. Czy sztuczna inteligencja może dobrze doradzać w dziedzinie relacji społecznych? Czy potrafi zrozumieć ludzkie uczucia i emocje? Czy porady AI mogą zaszkodzić naszym kontaktom społecznym? Czy takie trener życia osobistego Ai to w ogóle dobry pomysł?

Google DeepMind testuje trenera życia osobistego AI

Zgodnie z informacją przekazaną przez New York Times, projekt Google Deep Mind będzie wykorzystywał generatywną sztuczną inteligencję do wykonywania co najmniej 21 różnych rodzajów zadań osobistych i zawodowych – w tym porad życiowych, pomysłów, instrukcji planowania czy wskazówek dotyczących korepetycji. Model ten jest również testowany pod kątem tego, jak dobrze asystent może odpowiedzieć na intymne pytania dotyczące życia ludzi.

Mówi się również, że narzędzie to ma funkcję tworzenia pomysłów, która zapewni użytkownikowi sugestie lub rekomendacje oparte na różnych sytuacjach. Ponadto może również uczyć lub doskonalić umiejętności, takie jak bieganie, a także zapewniać użytkownikom plany posiłków i treningów. Czy taki trener życia osobistego to dobry pomysł?

Czy chatboty potrafią zrozumieć ludzkie emocje?

Od kiedy narzędzie oparte na AI stały się szeroko dostępne, są one źródłem cennych informacji dla wielu osób. Pytania, które im zadajemy, nie ograniczają się do zapytań o dane, tłumaczeń czy próśb o stworzenie gotowych tekstów. Użytkownicy i użytkowniczki bardzo często proszą również o porady związane z relacjami z innymi ludźmi, a nawet z życiem uczuciowym – informację tę potwierdzają choćby ChatGPT i Google Bard. Obydwa chatboty przyznają jednak , że nie są ludźmi i nie są w stanie zrozumieć ludzkich emocji i zachowań[2].

Warto mieć na uwadze, że mechanizmy AI towarzyszą nam na co dzień od niespełna roku i z pewnością nie pokazały nam jeszcze swoich pełnych możliwości. Na rynku jest wciąż dużo miejsca dla nowych produktów, które wkroczą w kolejne dziedziny ludzkiego życia.

“Udane rozwiązania technologiczne to te, które potrafią rozwiązywać codzienne problemy wielu osób. To właśnie dzięki temu wyszukiwarka Google zdobyła tak niezwykłą popularność. Obecnie otrzymaliśmy nowe narzędzie, które potencjalnie może pomagać nam na co dzień, czyli właśnie AI. Oczywistym wydaje się zatem, że ludzie zaczną wykorzystywać je do rozwiązywania swoich realnych problemów, czyli również tych, związanych z relacjami międzyludzkimi” – komentuje Maria Mikołajczak, Product Manager, AI/ML w SoftServe Poland.

Emergencja, czyli nie wszystko da się przewidzieć

Teoretycznie rzecz biorąc, modele językowe oparte na uczeniu maszynowym są w stanie tworzyć komunikaty tylko i wyłącznie na podstawie wiedzy, która została im przekazana przez ludzi. W końcu to ich twórcy trenują je, skrzętnie wybierając informacje, które mają być podstawą ich zachować. Należy jednak pamiętać, że w nauce od zasad często zdarzają się wyjątki.

“W robotyce istnieje zjawisko nazywane emergencją. To taki niemożliwy do przewidzenia pierwiastek. Tworzone przez nas systemy są w stanie, na podstawie dostarczonej im wiedzy, wyciągnąć wnioski, których nikt do tej pory nie wysunął. Dobrym przykładem jest słynna partia gry w Go, w której AI pokonało jej mistrzów, wykonując ruch, który doświadczonym graczom wydawał się bezsensowny. Można zatem domniemywać, że ta wiedza nie pochodziła od ludzi, a była wytworem sztucznej inteligencji” – opowiada Mariusz Janiak, (Co-)simulation and Optimization Expert w SoftServe Poland.

Można zatem wyobrazić sobie, że chatbot zapytany o poradę związaną z relacjami międzyludzkimi, bazując na wiedzy teoretycznej, otrzymanej od swoich twórców, może udzielić odpowiedzi, na które nikt z nas nigdy by nie wpadł. W tym momencie pojawia się obawa, że jeżeli ludzie zaczną postępować zgodnie z poradami sztucznej inteligencji, świat relacji i związków zmieni się nie do poznania. Czy w takiej sytuacji będziemy w stanie dalej poruszać się w tym świecie bez potrzeby pytania o wskazówki AI?

Istotną kwestią z pewnością jest również ochrona danych osobowych. Każdy, kto będzie rozmawiał z AI o innej osobie, może udzielić narzędziu informacji, na które bohater lub bohaterka opowieści nie wyrazili zgody. W tej sytuacji to firmy, których własnością są rozwiązania sztucznej inteligencji, staną się właścicielami tych danych. Plotkowanie ze sztuczną inteligencją może więc nieść za sobą znacznie poważniejsze skutki niż pogaduszki ze znajomymi.

Kolejnym ryzykiem, które pojawia się na horyzoncie jest utrata spontaniczności i bezpośredniości w naszych kontaktach z innymi ludźmi. Można sobie wyobrazić, że w obawie przed oceną innych, ludzie zaczną konsultować z AI każdą planowaną interakcję.

“Większość popularnych obaw wydaje się być mocno na wyrost. Pewnie kwestie wymagają jednak zaplanowania i ustrukturyzowania, być może nawet regulacji na poziomie państwowym. Pozostałe da się rozwiązać solidną edukacją. Użytkownicy muszą znać możliwości i ograniczenia AI i wiedzieć, że to na nich spoczywa odpowiedzialność za działania oparte na robotycznych poradach” – uważa Mateusz Mitula, Senior Data Scientist w StofServe Poland.

Czy AI ma hamulce?

Obecnie odpowiedzią na większość obaw jest fakt, że AI nadal budują i rozwijają ludzie. To my tworzymy mechanizmy sztucznej inteligencji, uczymy sieci, selekcjonujemy informacje, którymi się posługują, a na koniec wyznaczamy dla nich granice. Osoby, które tworzą modele językowe, decydują w pewnym zakresie o tym, na jakie tematy sieci nie będą rozmawiały. Dla przykładu Chat GPT przyznaje, że są zagadnienie, w których zachowuje wyjątkową ostrożność np. nielegalna działalność, nienawiść i dyskryminacja, bezpieczeństwo i prywatność, porady medyczne i prawne czy osobiste informacje dotyczące użytkowników[3].

Podobnie sytuacja ma się z technologiami, które generują materiały graficzne. Nie każdy obraz, który będziemy chcieli otrzymać, zostanie stworzony. Generatory odmawiają wykonywania części poleceń.

Na ten moment nie ma więc powodu, aby podejrzewać, że osobiści asystenci oparci na AI będą działali bez żadnych, określonych przez ludzi ograniczeń. Istotne jest jednak, aby sposób tworzenia ich modeli językowych był jak najbardziej transparentny. Przejrzystość działań pozwoli na lepsze i powszechne zrozumienie tej technologii, a to powinno doprowadzić do zmniejszenia wielu obaw.

[1] https://www.theguardian.com/technology/2023/aug/17/google-deepmind-testing-personal-life-coach-ai-tool
[2] Informacja oparta na odpowiedziach udzielonych przez ChatGPT i Google Bard.
[3] Jak wyżej.
Tagi

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *