Sztuczna inteligencjaBiznesPREZENTACJA PARTNERA

Agent AI: rewolucjonista w świecie RPA

Advertorial

Autonomiczne systemy agentowe są dziś zdolne do wykonywania złożonych zadań biznesowych i realizacji konkretnych celów. Mogą przy tym korzystać z dotychczasowych narzędzi, w tym rozwiązań RPA (Robotic Process Automation).

Agent AI: rewolucjonista w świecie RPA

Koncepcja agenta AI opiera się na połączeniu możliwości generatywnej sztucznej inteligencji i tradycyjnego, w pełni deterministycznego oprogramowania działających w ramach spójnego i wspólnego kontekstu. Taka kombinacja umożliwia tworzenie rozwiązań pozwalających na zautomatyzowanie nieliniowych, nierzadko wręcz nieprzewidywalnych procesów zmierzających do realizacji konkretnego celu.

Agenci AI dobrze sprawdzają się w roli narzędzi automatyzujących realizację czynności zmierzających do osiągnięcia konkretnego celu. Powinny być jednak dobrze osadzone w realiach konkretnego procesu lub organizacji, a także dobrze zdefiniowanych reguł funkcjonowania.

Nie mówimy tu bowiem o wirtualnych asystentach wspierających użytkowników, ale o autonomicznych systemach realizujących konkretne zadania w sposób samodzielny i dynamicznie dostosowywany do realiów.

Agent w służbie biznesu

Połączenie funkcji opartych na generatywnej sztucznej inteligencji z bardziej klasycznymi rozwiązaniami – od aplikacji biznesowych, przez obsługę poczty elektronicznej, aż po arkusze kalkulacyjne z wbudowanymi makrami – stwarza nowe możliwości automatyzacji procesów.

Realne staje się wykorzystanie możliwości dużych modeli językowych na potrzeby interpretowania poleceń i danych wejściowych oraz ich przetwarzania do postaci akceptowanej przez różnego rodzaju aplikacje, rejestry czy mechanizmy RPA. Niemal tak, jak robiłby to użytkownik – choć szybciej i na większą skalę.

„Agent AI to nie tylko model LLM, który zapewnia rozumienie języka naturalnego, czyli przykładowo polecenia czy zgłoszenia użytkownika, ale także odpowiada za ‘rozumowanie’ i podjęcie konkretnych decyzji. Wymaga on połączenia z wieloma technikami standardowego, deterministycznego programowania, dostępu do firmowych baz danych czy interfejsów programistycznych, a także walidacji i kontroli błędów” – mówi Andrzej Gumieniak, Head of IoT and Distributed Solutions Practice w Inetum Polska.

Istnieje zatem możliwość specjalizacji agentów nie tylko pod kątem realizacji konkretnych zadań, ale całych procesów. Jednocześnie, agenci AI mogą pracować zespołowo.

Agent AI: rewolucjonista w świecie RPA

Agent AI to nie tylko model LLM, który zapewnia rozumienie języka naturalnego – polecenia czy zgłoszenia użytkownika, ale także odpowiada za ‘rozumowanie’ i podjęcie konkretnych decyzji. Wymaga on połączenia z wieloma technikami programowania, dostępu do firmowych baz danych, a także walidacji i kontroli błędów.

Andrzej Gumieniak, Head of IoT and Distributed Solutions Practice, Inetum Polska

Architektura wieloagentowa – uniwersalność plus specjalizacja

W przypadku bardziej złożonych zadań, wymagających wykorzystania wyspecjalizowanych aplikacji lub specyficznych danych, warto rozważyć rozdysponowanie pracy pomiędzy różne rozwiązania agentowe. Przykładowo podejście wieloagentowe daje bowiem możliwość wykorzystania różnych zestawów instrukcji i modeli AI w ramach jednego procesu.

 „W zakresie architektury wieloagentowej tworzymy system, w którym mamy wielu współdziałających ze sobą autonomicznych agentów. Każdy z nich ma inną specjalizację. Nad podziałem zadań czuwa superagent, czyli orkiestrator, który otrzymuje polecenie i jego zadaniem jest zinterpretowanie zadania, rozłożenie na mniejsze części i rozdzielenie pracy, w formie konkretnych poleceń do agentów wyspecjalizowanych w poszczególnych obszarach” – mówi Marek Czachorowski, Head of Data & AI Solutions w Inetum Polska.

W efekcie, powstaje sieć współpracujących ze sobą, dziedzinowych agentów AI. Są to zautomatyzowani specjaliści, którzy współdziałając mogą dostarczyć wyniki wyższej jakości niż byłoby to możliwe, przy użyciu pojedynczego agenta, bardziej uniwersalnego zastosowania. Środowiska agentowe są także bardziej przejrzyste, łatwiej wyjaśnialne i zarządzalne niż złożone rozwiązania wykorzystujące pojedyncze, instancje agentowe.

„Wyobraźmy sobie jak bardzo skomplikowany musiałby być prompt oraz jak trudno byłoby osiągnąć dobrą jakoś realizacji zadania, gdyby wszystkie kroki wykonywał tylko jeden uniwersalny agent. To tak, jakby poprosić osobę na recepcji w dużym centrum medycznym, aby zapisała nas na wizytę, zdiagnozowała problem, określiła zakres prac, wybrała zespół realizujący zadanie, a na koniec sama przeprowadziła zabieg. Efekt mógłby nie być zadowalający” – wyjaśnia Marek Czachorowski.

Koncepcje wieloagentowe w istocie nawiązują zatem do ewolucji architektury oprogramowania oraz stopniowego odchodzenia od struktur monolitycznych na rzecz mikroserwisów i usług. Podobnie jak w przypadku architektury IT, specjalizacja pozwala uniknąć problemów związanych z trudnymi do utrzymania i rozwijania systemami uniwersalnymi.

Oczywiście, możliwych rozwiązań na poziomie architektury środowisk agentowych jest więcej – od orkiestrowanych z centralną jednostką zarządzającą, przez hierarchiczne z wieloma warstwami specjalizacji, po całkowicie zdecentralizowane, gdzie niezależni agenci obserwują otoczenie i automatycznie włączają się do rozwiązywania problemów. Równolegle, poszczególne zespoły agentów AI mogą wzajemnie kontrolować swoje działania pod kątem jakości wyników, efektywności działania lub zgodności z regulacjami.

Agent AI: rewolucjonista w świecie RPA

W ramach architektury wieloagentowej tworzymy system, w którym mamy wielu współdziałających ze sobą autonomicznych agentów. Każdy ma inną specjalizację. Nad podziałem zadań czuwa superagent, orkiestrator, którego zadaniem jest zinterpretowanie zadania, rozłożenie na mniejsze części i rozdzielenie pracy.

Marek Czachorowski, Head of Data & AI Solutions, Inetum Polska

Procesy związane z koniecznością wykonania wielu operacji

Z opracowanego przez Światowe Forum Ekonomiczne raportu „The Future of Jobs Report 2025” wynika, że w perspektywie 5 lat sztuczna inteligencja odegra kluczową rolę w rozwoju działalności organizacji biznesowych z całego świata. Rozwiązania agentowe już dziś znajdują coraz szersze zastosowanie w realnych scenariuszach biznesowych.

Prym wiodą głównie procesy związane z koniecznością wykonania wielu relatywnie prostych, ale powtarzalnych operacji czy obsługi tysięcy zapytań w sprzedaży, marketingu, czy obszarach administracyjnych. Przykładowo, w instytucjach finansowych agenci wydatnie wspierają procesy ofertowania czy analizy ryzyka kredytowego.

Powstają również rozwiązania hybrydowe, wykorzystujące klasyczne algorytmy uczenia maszynowego na potrzeby analizy danych z rozwiązaniami GenAI w roli interfejsu obsługi. Takie podejście zapewnia użytkownikom biznesowym możliwość bezpośredniej komunikacji ze złożonymi rozwiązaniami analitycznymi, w tym zadawania pytań i otrzymywanie szczegółowych wyjaśnień bez konieczności angażowania specjalistów.

Ciekawym obszarem zastosowania agentów AI są też projekty IT. Środowiska agentowe zapewniają wydatne wsparcie w zakresie tworzenia kodu oprogramowania. Innym znaczącym obszarem zastosowań są migracje do chmury, gdzie agenci analizują logi systemowe i odbudowują architekturę IT na podstawie komunikacji między aplikacjami. To rozwiązanie jest szczególnie cenne w przypadku wielkich środowisk o nieudokumentowanej architekturze, budowanej przez dziesiątki lat.

Rozwiązania agentowe dają możliwość przyspieszenia i zaoszczędzenia znaczących kwot w ramach projektów transformacji i modernizacji rozległych środowisk obejmujących rozwiązania typu legacy o rozwijanej latami, nieudokumentowanej architekturze.

Multimodalność jako przełom technologiczny

Niewykluczone, że wizją niedalekiej przyszłości będzie także zaangażowanie systemów agentowych w procesy wymagające większej kreatywności, zbiorowego rozwiązywania problemów czy realizacji projektów badawczych. Najbliższe lata mogą również przynieść kolejny skok możliwości rozwiązań AI, w tym platform agentowych.

Zdaniem ekspertów Inetum, mogą one zyskać dodatkowe zdolności oparte na integracji możliwości analizy obrazów, dźwięków, strumieni danych i innych sygnałów. „Jesteśmy u progu wielkiej rewolucji, która wiąże się z tak zwanymi agentami multimodalnymi. Będą one mogły czerpać i właściwie interpretować informacje z różnych źródeł. To oznacza, że agenta będzie można poprosić o interpretację zdjęcia, wykresu lub transmitowanego na żywo obrazu z kamery. Już dziś istnieje spora grupa modeli AI, które to potrafią. Takie modele również znajdą zastosowanie w środowiskach agentowych” – mówi Sebastian Stefanowski, Head of Data Integration w Inetum Polska.

W tym kontekście szczególnie obiecująca jest technika Visual Reinforced Fine Tuning, która pozwala na trenowanie modeli wizualnych z wykorzystaniem kontekstu tekstowego. Dzięki niej realne staje się trenowanie sztucznej inteligencji pod kątem rozpoznawania zjawisk wizualnych oraz ich konsekwencji.

„Model wizualny może, na przykład, nie wiedzieć jakie owady produkują miód, ale z wykorzystaniem komponentu tekstowego może wywnioskować, że chodzi o pszczoły i właściwie rozpoznać je na obrazie. Zatem, dzięki wnioskowaniu, model wizualny może intepretować obrazy spoza domeny, na której był trenowany. To z kolei otwiera możliwość obniżenia kosztów rozwoju agentów multimodalnych” – dodaje Sebastian Stefanowski.

Rozwój w kierunku multimodalności oznacza, że agenci AI mogą zyskać możliwości, które odpowiadają ludzkim zmysłom i będą mogły zostać wykorzystane do lepszego wnioskowania na podstawie danych wejściowych. To z kolei zwiększy autonomiczność i efektywność działania środowisk agentowych. Obecnie, pewnym wyzwaniem jest natomiast zapewnienie sprawnej komunikacji pomiędzy rozwiązaniami agentowymi.

Agent AI: rewolucjonista w świecie RPA

Jesteśmy u progu wielkiej rewolucji, która wiąże się z tak zwanymi agentami multimodalnymi. Będą one mogły czerpać i właściwie interpretować informacje z różnych źródeł. To oznacza, że agenta będzie można poprosić o interpretację zdjęcia, wykresu lub transmitowanego na żywo obrazu z kamery.

Sebastian Stefanowski, Head of Data Integration, Inetum Polska

Potrzeba standaryzacji w świecie AI – MCP vs A2A vs NLWeb

Jednym z wyzwań na drodze do szerszego wykorzystania koncepcji agentów AI w realiach wykraczających poza infrastrukturę IT konkretnych organizacji jest konieczność zapewnienia efektywnej komunikacji i wymiany danych, w tym kontekstów, w coraz bardziej złożonych środowiskach wieloagentowych – zarówno między samymi agentami, jak również agentami i bardziej klasycznymi systemami IT. Specjaliści Inetum zwracają uwagę na dwie inicjatywy.

1. Protokół MCP

(Model Context Protocol) fi rmy Anthropic. Zapewnia warstwę standaryzacji dla komunikacji między agentami AI z innymi elementami środowisk aplikacyjnych, w tym bazami danych.

Obok typowej integracji, protokół MCP zawiera funkcje pozwalające agentom na odpytywanie narzędzi o ich możliwości, a następnie ułatwiające ich zautomatyzowane wykorzystanie.

2. Protokół A2A

(Agent-to-Agent) rozwijany przez Google. Umożliwia komunikację między agentami w architekturach rozproszonych.

Pojawiają się również inicjatywy zakładające daleko idące, ukierunkowane na możliwość wykorzystania przez rozwiązania agentowe, zmiany w zakresie obsługi znanych nam systemów. Jedną z nich jest projekt NLWeb (Natural Language Web) firmy Microsoft.

„Microsoft dąży do tego, aby każda strona internetowa stała się w pewnym sensie agentem AI, który zapewni nowe możliwości wykorzystania i konsumowania treści. Z jednej strony będzie to ułatwienie dla nas, ludzi, bo pojawi się możliwość wyszukiwania treści w formie dialogu, z drugiej natomiast zapewni nowe funkcje komunikacji z innymi agentami” – mówi Marek Czachorowski.

„Wyobraźmy sobie, że mamy agenta, który w sposób naturalny potrafi wyszukiwać treści na stronach, czy w sklepach internetowych i przekazywać te treści użytkownikom w takiej formie, jakiej oczekują. Innymi słowy, agent nie będzie próbował wpasować się w procesy zaprojektowane dla ludzi, to zupełna zmiana paradygmatu” – dodaje. W tym układzie interfejsy graficzne stworzone dla ludzi będą realnie tylko dodatkiem.

Wyzwania etyczne i kwestie odpowiedzialności

Rosnąca autonomia sztucznej inteligencji, a w szczególności systemów agentowych rodzi szereg wyzwań w zakresie etyki oraz odpowiedzialności za podejmowane decyzje i potencjalne konsekwencje błędów. W praktyce oznacza to m.in. konieczność zapewnienia całościowej kontroli nad procesami realizowanymi z udziałem agentów AI, a co za tym idzie – ich pełnej przejrzystości.

„Warto zdać sobie sprawę, że na obecnym poziomie rozwoju systemy agentowe zapewniają ogromne ułatwienia i wsparcie dla całych zespołów pracowników, ale nadmierne poleganie na efektach ich pracy może nieść pewne ryzyka. W niedalekiej przyszłości ta sytuacja się nie zmieni, chociaż trudno przewidzieć co będzie za 5-10 lat” – uważa Sebastian Stefanowski. „Na chwilę obecną w pewnych aspektach agenci AI nie przewyższają możliwości ludzi. Istnieją zatem pewne obszary, nazwijmy je umownie 'krytycznymi’, których nie należy w całości powierzać agentom” – dodaje.

Paradoksalnie, błędem okazuje się postrzeganie systemów agentowych jako rozwiązań nieomylnych, pozbawionych potencjału do błędnych decyzji. Nie są to bowiem systemy w pełni przewidywalne w działaniu. „Obserwujemy dziś rozkwit rozwiązań agentowych, które mają zastępować pracowników w operacjach wymagających podejmowania decyzji i oczekujemy od nich stuprocentowej sprawności i bezbłędności. Najlepsze modele potrafią rozwiązywać większość problemów lepiej niż dziewięćdziesiąt kilka procent populacji ludzkiej. Możemy zatem założyć, że takie modele w scenariuszach, na które zostały przygotowane, zachowają się lepiej niż większość potencjalnych pracowników” – mówi Andrzej Gumieniak.

„W istocie jednak takie rozwiązania nie są nieomylne. Po to stosujemy techniki dekompozycji i ograniczania obszarów działania agentów, aby mieć większą kontrolę nad efektami ich działania” – podkreśla.

Nie ma co czekać z wdrożeniem agentów AI

Wartości biznesowe związane z wykorzystaniem technologii AI, w tym rozwiązań agentowych, są bardzo wymierne. Dotyczą nie tylko kwestii kosztowych, ale przede wszystkim możliwości skalowania, zoptymalizowania oraz przyspieszenia newralgicznych operacji i procesów, a także zmiany całych modeli biznesowych.

Zdaniem ekspertów Inetum, z analizą możliwości i wdrożeniem technologii agentowych nie powinny zwlekać w szczególności duże organizacje z rozległą bazą klientów i znaczącą liczbą powtarzalnych operacji. Odkłada nie takich projektów w czasie może bowiem skutkować utratą przewagi konkurencyjnej. W wielu branżach istnieją organizacje, które na szeroką skalę inwestują w techno logie agentowe. Zyskują zatem dodatkowe możliwości skalowania działalności.

Kluczem do sukcesu ma być tu jednak podejście strategiczne, uporządkowane odgórnie i nakreślające oczekiwania związane z wykorzystaniem AI. „Nie zaczynajmy od niskopoziomowych, oddolnych inicjatyw zmierzających do rozwiązywania problemów w ramach jednego zespołu. Właściwa odpowiedź na potencjał technologii agentowych wymaga podejścia top-down, zaangażowania kierownictwa i opracowania całościowej strategii wykorzystania AI. Dopiero na tej podstawie będzie można określić, w jakie narzędzia oraz obszary inwestować, aby uzyskać najbardziej oczekiwane korzyści” – podsumowuje Andrzej Gumieniak.

Opracował Piotr Waszczuk

 

Artykuł ukazał się na łamach: Raport ITwiz BEST100 edycja 2025. Zamów poniżej:

Tagi

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *