Sztuczna inteligencjaBiznesExecutive ViewPointPREZENTACJA PARTNERA
GenAI to możliwość budowy i zastosowania nowych modeli biznesowych
EXECUTIVE VIEWPOINT
Z Marcinem Ledworowskim, AI Lead w sektorze finansowym w Accenture w Polsce oraz Michałem Skowronem, AI GTM Lead, CEE w Google Cloud rozmawiamy o typach dostępnych modeli AI i ich zastosowaniach; strategiach związanych z ich wykorzystaniem, takich jak obniżenie kosztów, poprawa efektywności i produktywności pracowników, czy zmiana paradygmatu funkcjonowania organizacji; a także nowych modelach biznesowych, które oferuje GenAI.
Bardzo popularna jest dziś nauka pisania promptów, które pomagają komunikować się z modelami LLM. Dla mnie jednak ciekawsze są np. modele, które wspierają pracę naukowców. Jednym z nich jest Google AlphaFold 3.
Michał Skowron (M.S.): AlphaFold powstał, aby zrozumieć struktury białek, czyli budulca wszelkiego życia na naszej planecie. Pierwsza wersja (2018), wykorzystywała splotowe – konwolucyjne – sieci neuronowe. Drugą oparto na opracowanej w Google Brain, i znanej z LLM’ów, architekturze Transformer (2017).
AlphaFold 2 (2020) z niespotykaną wcześniej precyzją przewidywał fizyczny kształt białka na podstawie sekwencji aminokwasów. AlphaFold 3 (2024) jeszcze dokładniej przewiduje struktury pojedynczych białek, oraz rozszerza zakres zastosowań na inne cząsteczki – białko-ligand, białko-kwas nukleinowy, struktury RNA itd.
Z kolei opracowana przez nas AlphaProteo jest systemem do projektowania wiązań białek. Mapuje białko, np. kolca koronawirusa i projektuje wiązanie, które najsilniej się z nim połączy. AlphaProteo potrafi również tworzyć wiązania pasujące do białek kojarzonych z cukrzycą, nowotworami, czy chorobami autoimmunologicznymi. Potencjał jest ogromny. Mamy nadzieję, że ta technologia pozwoli opracować nowe leki i terapie.
Środowisko naukowe dostrzega postęp, jaki dokonuje się za sprawą wykorzystania sztucznej inteligencji. Ubiegłoroczną Nagrodę Nobla w dziedzinie chemii przyznano Davidowi Bakerowi właśnie za „obliczeniowe projektowanie białek” oraz Demisowi Hassabisowi i Johnowi M. Jumperowi z Google Deep Mind za „przewidywanie struktury białek”.
Są firmy, które rozumieją obietnicę GenAI. Dla tych firm najważniejsze jest bycie pionierem i osiągnięcie przewagi konkurencyjnej. Eksperymentują. Dekomponują procesy end-to-end i implementują AI / GenAI tam, gdzie ma to najwięcej sensu dla ich organizacji – mówi Michał Skowron, AI GTM Lead, CEE w Google Cloud.
Nagrody Nobla z fizyki – za odkrycia i wynalazki umożliwiające uczenie maszynowe za pomocą sieci neuronowych – otrzymali zaś John J. Hopfield i Geoffrey E. Hinton. Ten ostatni przez lata badał sztuczną inteligencję pracując m.in w Google.
Geoffrey E. Hinton, wraz ze współpracownikami, już w 1986 opisał piękną matematyką w wielowymiarowych przestrzeniach funkcji proces uczenia, który odbywa się w ludzkim mózgu. Prawdziwe połączenia między neuronami wzmacniają się lub osłabiają w trakcie biologicznego procesu uczenia. W sztucznych sieciach neuronowych – podczas treningu – modyfikowane są wagi połączeń między węzłami. Odpowiada za to matematyczny mechanizm propagacji wstecznej.
Sztuczna Inteligencja wspiera naukowców także w innych dziedzinach. Modelowanie zmian klimatu staje się prostsze dzięki GenCast. Sieci neuronowe pomagają utrzymywać w ryzach plazmę w tokamakach, czyli reaktorach fuzji, albo korygować błędy i zwiększać spójność (koherencję) w komputerach kwantowych na co pozwala nowy procesor Willow.
Opracowana w Google architektura o nazwie Transformer to też wynik naukowych badań nad zastosowaniem sieci neuronowych do przetwarzania języka naturalnego. Podzieliliśmy się tym wynalazkiem na licencji open source, zachęcając środowiska akademickie do testowania i badania potencjalnych skutków masowego rozpowszechnienia się LLM’ów.
Startupy wykorzystały ten czas, trenując Transformery na coraz większych korpusach danych i oto stanęliśmy u progu nowej rewolucji – Generatywnej Sztucznej Inteligencji.
Jakie są obecnie największe bariery dotyczące wykorzystania GenAI u Waszych klientów? Jakich zmian powinni dokonać w organizacji, aby ich adopcja następowała dużo szybciej?
Marcin Ledworowski (M.L.): W polskiej praktyce w Accenture skupiamy się na klientach działających w tzw. sektorach regulowanych. To oznacza, że ich działania podlegają nadzorowi – a rolę regulatora pełni Komisja Nadzoru Finansowego. Dlatego też skłonność tego typu klientów do podejmowania ryzyka jest dość niska.
Pierwsze efekty wykorzystania GenAI można zaprezentować w kilka tygodni, niekiedy w parę godzin, o ile ma się sprawny zespół deweloperski. Natomiast to tylko sygnał, że dana technologia jest obiecująca – mówi Marcin Ledworowski, AI Lead w sektorze finansowym w Accenture w Polsce.
Niemniej klasyczna sztuczna inteligencja w sektorze bankowym jest obecna od wielu lat. Jest stosowana do badania trendów, zachowań klientów czy podejmowania decyzji. W przypadku „nowej”, generatywnej sztucznej inteligencji, jesteśmy wciąż na etapie adopcji tej innowacji. Dostępna jest de facto zaledwie od kilkunastu miesięcy.
W przypadku sektora finansowego są pojedyncze podmioty, które poszły daleko ze swoimi projektami AI. Są to firmy najbardziej innowacyjne, które potrzebują GenAI, także w kontekście wizerunku lidera rynku. Większość firm jest jednak dosyć ostrożna jeśli chodzi o wdrożenia tej technologii. Przygotowuje się do pierwszych projektów prowadząc testy generatywnej AI.
Rynek ma świadomość, że innowacje technologiczne mogą prowadzić do szybkich, bardzo atrakcyjnych efektów, ale mają też słabości. Wchodzimy bowiem na niezbadane obszary, których nie da się przewidzieć przed wdrożeniem.
Jak to wygląda Michał z Twojego punktu widzenia?
M.S.: Obserwuję dwie kategorie klientów. Pierwsi to ci, o których Marcin wspomniał. Czekają na regulacje albo innych prekursorów, którzy opracowują standardy i praktyki wdrożeń AI w ich sektorach. Zachęcamy tych klientów do wspólnych warsztatów. Pokazujemy, że ta nowa technologia ma bardzo solidnie wsparcie w dostępnych już narzędziach. Można więc już dziś bezpiecznie budować rozwiązania oparte na GenAI przy zachowaniu pełnej kontroli nad wszystkimi aspektami wdrożenia.
Drugi typ klientów to firmy, które rozumieją obietnicę GenAI. Rozumieją, że jeśli te nowe, potężne możliwości – generowanie treści, podsumowywanie dużych zbiorów informacji, konwersacyjne wyszukiwanie, automatyzacja procesów – wdrożymy w całej ścieżce użytkownika, to wpływ na biznes będzie znaczący. Dla tych firm najważniejsze jest bycie pionierem i osiągnięcie przewagi konkurencyjnej dzięki temu, że są pierwszymi na rynku. Uczą się szybciej. Eksperymentują. Dekomponują procesy end-to-end i implementują AI / GenAI tam, gdzie ma to najwięcej sensu dla ich organizacji. Chcą zdobyć przewagę konkurencyjną i zwiększyć udział w rynku.
Środowisko naukowe dostrzega postęp, jaki dokonuje się za sprawą AI. Nagrodę Nobla w 2024 w dziedzinie chemii przyznano D. Bakerowi właśnie za „projektowanie białek” oraz D. Hassabisowi i J.M. Jumperowi z Google Deep Mind za „przewidywanie struktury białek” – mówi Michał Skowron.
Generatywna sztuczna inteligencja została szybko przyswojona przez początkujących użytkowników i studentów, którzy dostrzegają jej potencjał w usprawnianiu ich pracy. AI pomaga również rozwijać myślenie krytyczne, rozwiązywanie problemów, kreatywność i umiejętności współpracy. Wraz ze wzrostem wykorzystania generatywnej sztucznej inteligencji dla nauczycieli kluczowe będzie rozwijanie umiejętności niezbędnych do skutecznej integracji narzędzi AI w praktyce nauczania.
Jowita Michalska, kierująca Digital University, Digital European Union Ambassador twierdzi, że nauczyciele powinni wręcz zachęcać do używania modeli LLM. Dostarczać gotowe wypracowanie z poleceniem, aby uczniowie poprawili je samodzielnie wspierając się właśnie chatbotem.
M.L.: W pełni się z tym zgadzam. Sam mam czwórkę dzieci. Trójka z nich jest dorosła, więc nie wiem w sumie jak używają GenAI, choć wiem, że to robią.
Ale moja 8-letnia córka do generatywnej, sztucznej inteligencji podchodzi z dużym entuzjazmem. Nie rozwiązuje z jej pomocą zadań domowych. Nie pozwalam na to. Ale używa własnej kreatywności do generowania abstrakcyjnych obrazów, np. psa, który w hełmie astronauty leci w kosmos na fasoli. Wywołuje to u niej niesamowitą ekscytację. Ma ogromną wyobraźnie, aby wygenerować tego typu obrazy, choć jeszcze nie technikę, aby samodzielnie je narysować. Potem oczywiście próbuje je przerysować.
Moim zdaniem GenAI może zostać wykorzystana do rozwijania młodych umysłów. To może być świetne narzędzie o ile uczniowie natrafią na właściwego nauczyciela.
Niedawno Google Cloud i National Research Group opublikowały raport o zwrocie z inwestycji w GenAI. Jednym z ustaleń jest to, że aż 74% firm osiąga ROI z tego typu projektów w ciągu pierwszego roku; 86% odnotowało co najmniej 6 proc. wzrost przychodów, a 45% firm podwaja lub zwiększa produktywność pracowników. Tego typu dane nie przekonują do tego, aby zacząć wdrażać narzędzia generatywnej AI?
M.S.: Często prezentuję te dane klientom…
M.L.: Pierwsze efekty wykorzystania GenAI można zaprezentować w kilka tygodni, niekiedy w parę godzin, o ile ma się sprawny zespół deweloperski. Natomiast to tylko sygnał, że dana technologia jest obiecująca.
Później przechodzimy do etapu żmudnego wdrożenia w dużej organizacji. W jego trakcie pojawiają się wszystkie, możliwe problemy, na jakie możemy się natknąć przy bardziej „klasycznych” projektach. Dotyczy to np. tematu uzgodnienia zakresu funkcjonalnego pomiędzy poszczególnymi pionami organizacji, trybu odbioru projektu itd.
Jednocześnie, na ten moment, nie ma jeszcze wielu firm, które zmieniłyby już swój model biznesowy w oparciu o generatywną AI. Nie ma dużych, korporacyjnych narzędzi, które działałyby w oparciu o tę technologię. Te wdrożenia odbywają się punktowo.
Klasyczna AI w sektorze bankowym jest obecna od wielu lat. Jest stosowana do badania trendów, zachowań klientów czy podejmowania decyzji. W przypadku „nowej”, generatywnej AI, jesteśmy wciąż na etapie adopcji tej innowacji – mówi Marcin Ledworowski.
Zrobiliśmy niedawno w Polsce badanie wśród ekspertów i menedżerów w sektorze finansowym. Wynika z niego, że mamy dziś do czynienia z trzema, podstawowymi strategiami wdrażania GenAI. Pierwszy to agresywny model wdrażania rozwiązań IT, które mają pozwolić na obniżenie kosztów.
Drugi model skupiony jest na korzyściach, które mogą odnieść pracownicy i klienci. Jest to model, w którym patrzy się na to, aby pracownicy byli bardziej efektywni, aby rosła ich produktywność. Priorytetem nie jest ograniczanie kosztów. Jeśliby tak było, to rzeczywiście zaczęlibyśmy zastanawiać się nad tym, kto straci pracę.
Ostatni scenariusz wdrażania jest chyba tym, który najczęściej dziś występuje. Punktowo znajdujemy obszary zastosowania GenAI i tam je wdrażamy. Ale to też wiąże się z tym, co już powiedziałem. Nie ma dużych, korporacyjnych narzędzi, które działałyby w oparciu o generatywną, sztuczną inteligencję.
Nie ma systemów, contact center opartych wyłącznie o AI. Nie ma też tego typu systemów CRM. W obu przypadkach są pojedyncze funkcjonalności GenAI. Nikt nie zbudował jeszcze od początku tego typu systemów funkcjonujących w oparciu o nowy model biznesowy. To w środowisku korporacyjnym zajmie lata.
Dodam też, że niedoceniana jest w tej chwili rola GenAI w zakresie inżynierii oprogramowania. Tymczasem sposób, w jaki deweloperzy i architekci korzystają już z tych narzędzi, jak rzeczywiście przyspieszają ich pracę, mocno zmieni ten rynek w najbliższych latach.
M.S.: Sztuczna inteligencja nie zastąpi programisty, ale programista wspierany przez AI zacznie wypierać z rynku kolegę, który pisze kod tradycyjnie. Tego typu zmiany dostrzeżemy w wielu obszarach.
Contact Center to doskonały przykład. Nasz pomysł na transformację tego obszaru opieramy o 3 zagadnienia:
- budowanie autonomicznych, konwersacyjnych agentów AI,
- wykorzystanie AI do wsparcia pracowników Contact Center przez asystentów AI,
- wykorzystanie AI do wsparcia klientów dzwoniących lub piszących do Contact Center dzięki funkcji Wnioski AI.
Cała platforma dostarcza zatem mnóstwo wartości w kilku kategoriach, ale nie jest i w przewidywalnej dla mnie przyszłości nie będzie autonomicznym systemem, czarną skrzynką AI, która zastąpi Centra Obsługi klienta. Uważam jednak, że AI daje tak dużą przewagę, że Contact Center wykorzystujące AI szybko wyprą z rynku te, które działają tradycyjnie.
Rok 2025 to będzie rok Agentów AI. Sztuczna inteligencja zacznie być użyteczna. Wystarczy zadbać o bezpieczeństwo dostępu do danych w różnych systemach i dać pracownikom możliwość zautomatyzowania własnej pracy w Google Agentspace – mówi Michał Skowron.
Warto zauważyć, że te firmy cenią pracowników i zatrudniają prawdziwych ludzi. Warto dostarczać im nowoczesne narzędzia, które zwiększają produktywność i poprawiają doświadczenie klienta.
Michał, gdybyś chciał dziś przekonać klientów do GenAI, to jakie narzędzia w ofercie Google byś im polecił? Thomas Kurian – w jednym z wywiadów – opowiadał o takich nowościach, jak: samodzielna aplikacja Gemini Google Cloud, Gemini for Workspace, czy pakiet Customer Engagement Suite dla Google AI…
M.S.: Osobiście wskazałbym na Google Agentspace. Rok 2025 to będzie rok Agentów AI. Firmy będą potrzebować narzędzi do ich tworzenia. Sztuczna inteligencja zacznie być użyteczna. Wystarczy zadbać o bezpieczeństwo dostępu do danych w różnych systemach i dać pracownikom możliwość zautomatyzowania własnej pracy. Agentspace zadebiutuje w II kwartale 2025 roku. Obecnie zapraszamy do programu Trusted Tester.
Jestem też wielkim fanem Veo 2 i Imagine 3. Jakość kreacji z tych modeli jest niesamowita, a dzięki znakowaniu wodnemu z wykorzystaniem SynthID można je bezpiecznie implementować w skali. Robi to już Puma w swoim e-commerce. Możliwość tworzenia wideo ze zdjęć sprawi, że katalogi produktów zaczną żyć, automatycznie dostosowując tła do preferencji klientów.
M.L.: To już się dzieje. Jestem częstym klientem salonów optycznych. Jak ostatnio zmieniałem okulary, mogłem na właściwie na każdej stronie obejrzeć, jak będę w nich wyglądał. To są super rozwiązania konsumenckie. Pomagają nam wyobrazić sobie zastosowanie i wygląd produktu w konkretnym modelu i rozmiarze. De facto zaś trzymające nas z dala od sklepu stacjonarnego. Przymierzalnię mamy w domu.
Ważny dziś trend to upowszechnienie agentów AI. To się już dzieje w wielu środowiskach, zwłaszcza dużych modeli chmurowych. W tym roku pojawi się być może już osobisty agent, który będzie miał dostęp do wielu aspektów naszego, codziennego życia – mówi Marcin Ledworowski.
M.S.: Poszczególne komponenty takich rozwiązań, modele, repozytoria gotowego kodu są dostępne na GitHub, czy Hugging Face od dawna. Można z nimi eksperymentować. Z mojej perspektywy, pracownika Google Cloud, przełomową zmianą z końca 2024 jest fakt, że nowe narzędzia dla developerów – np. Live API do multimodalnego Gemini 2, możliwość automatycznej edycji obrazów z Imagen 3, Android XR – pozwalają firmom myśleć o bezpiecznej transformacji w skali, globalnie i z pełną kontrolą.
Rozumiem, że tych bardziej kompleksowych zastosowań jest coraz więcej?
M.S.: Tak. Wyobraź sobie, że Agent AI, z którym naturalnie komunikujesz się w dowolnym języku bezpiecznie łączy się z korporacyjną bazą wiedzy, systemem z kolejką zgłoszeń, CRM, książką adresową etc. Potrafi odnaleźć informacje o tym jak rozwiązano zgłoszenia, podobne do tego, które chcesz właśnie założyć.
Jeśli problem jest powtarzalny to prosisz Asystenta AI, aby wykonywał określone akcje, wywoływał funkcje w systemach, z którymi jest połączony interfejsem API. Programujesz go bez użycia kodu. Agent odpowie w ten sposób na maile, wprowadzi dane do systemów, założy zgłoszenia, stworzy raporty, podsumuje je itd. Dodajmy do tego możliwość generowania treści, wykonywania tłumaczeń. Mówimy o bardzo kompleksowym stosowaniu AI w coraz większej ilości zadań.
Nawet instytucje regulowane budują już narzędzia AI do analizy ogromnych ilości danych. Wraz z GenAI pojawił się nowy rodzaj baz, w których dane umiejscawiamy w matematycznych przestrzeniach wektorowych, dzięki czemu możemy po nie sięgać posługując się językiem naturalnym za pośrednictwem LLM (tzw. RAG).
M.L.: Najprostsze, generyczne wdrożenia GenAI pozwalały przeglądać własną bazę dokumentów z odcięciem dostępu do internetu. Dla klientów korporacyjnych był to bardzo ważny aspekt pozwalający ograniczać halucynacje. Dzięki temu, system chatbota nie podaje danych z zewnętrznych, niesprawdzonych źródeł.
Ostatnie pytanie, czego możemy się spodziewać po GenAI w roku 2025? Warren Barkley, Cloud AI Leader w Google, powiedział, że modele, które zbudowaliście 18 miesięcy temu, są cieniem tych, które dostarczacie dzisiaj. Czego wobec tego możemy spodziewać się po GenAI w kolejnych 12-18 miesiącach?
M.S.: Jestem pewien, że Gemini wciąż będzie multimodalne, a komunikacja za pomocą tekstu, obrazu, dźwięku będzie coraz bardziej naturalna.
Narzędzia dla deweloperów i platforma do tworzenia rozwiązań w oparciu o AI są już dojrzałe i wychodzimy z obszaru eksperymentowania na produkcję. Zakończyliśmy rok 2024 publikacją 321 przykładów wykorzystania GenAI przez naszych klientów.
W 2025 będziemy z klientami kontynuować budowę bezpiecznych, użytecznych aplikacji AI i rozwijać je w architekturach multi-agentowych aby dalej upraszczać, automatyzować i wnosić coraz więcej wartości.
Warto podkreślić, że Google w Polsce jest obecnie największym centrum inżynieryjnym w Unii Europejskiej. Od 20 lat wspieramy rozwój gospodarki cyfrowej i nadal kontynuujemy znaczące inwestycje w Polsce, które mogą stać się kluczowym czynnikiem w rozwoju sztucznej inteligencji w regionie.
Podczas niedawnej wizyty Sundara Pichaia, prezesa Google i Alphabet w Polsce podpisaliśmy z partnerami – w tym Polskim Funduszem Rozwoju – list intencyjny dotyczący transformacji technologicznej i wykorzystania AI w sektorach energetyki, cyberbezpieczeństwa i ochrony zdrowia. Aby zrealizować wizję tego porozumienia Google zakłada zainwestowanie miliardów złotych. Co ważne, porozumienie nie tylko dostarczy technologię i know-how, ale i pomoże w budowie infrastruktury, która umożliwi szybkie i skuteczne wprowadzanie produktów AI na rynek.
Równolegle Google zamierza przeszkolić w Polsce 1 milion osób z AI w ramach wsparcia rozwoju ekosystemu technologicznego. Celem jest uczynienie Polski jednym z liderów w tworzeniu rozwiązań AI, z wykorzystaniem potencjału wybitnych inżynierów i naukowców. To ogromna szansa zarówno dla gospodarki, jak i dla lokalnych przedsiębiorstw, które skorzystają na rozwoju i dostępie do nowoczesnych technologii.
M.L.: Ja prognozuję dwa, istotne trendy. Po pierwsze, żaden, nowy model nie zaskoczy nas tak, jak to miało miejsce 2 lata temu kiedy wybuchła konsumencka rewolucja i “hype” na wykorzystanie LLM’ów. Różnice między kolejnymi wersjami, kolejnych modeli nie są już aż tak rewolucyjne z punktu widzenia rynku. Następuje naturalny rozwój modeli i ich konkurowanie o uwagę klientów. Będzie za to więcej konkretnych zastosowań – np. nowe voiceboty, czyli przetwarzanie głosu i prowadzenie rozmowy w modelu LLM w czasie rzeczywistym.
Po drugie, ważny trend to upowszechnienie agentów AI. To się już dzieje w wielu środowiskach, zwłaszcza dużych modeli chmurowych. W tym roku pojawi się być może już osobisty agent, który będzie miał dostęp do wielu aspektów naszego, codziennego życia. Myślę, że nastąpi to szybciej niż realizacja dużych projektów opartych o GenAI w korporacjach.