CDODebata ITwizSztuczna inteligencjaCIOPolecane tematy
Debata ITwiz. AI w działaniu: nadzieje, sukcesy, porażki
Sztuczna inteligencja to dziś nie tylko modne hasło, ale narzędzie, które może – choć nie musi – przynieść wartość organizacjom. W gąszczu modeli, możliwości i dynamicznie zmieniających się regulacji coraz trudniej odróżnić chwilową modę od trwałej transformacji. Dlatego w tej debacie skupiliśmy się na doświadczeniach: sukcesach, porażkach i cennych lekcjach z wdrażania AI w różnych branżach.

Sztuczna inteligencja to dziś temat wszechobecny, ale warto dokumentować kolejne etapy wdrażania i dzielić się doświadczeniem. Które obszary wasze firmy wybrały na start projektów związanych z AI?
Michał Maciejski, dyrektor Biura Informatyki w Polregio: Naszym priorytetem przy wdrażaniu projektów AI jest cyberbezpieczeństwo. Jesteśmy celem licznych prób skanowania naszych systemów — m.in. przez podmioty ze wschodu — co widzimy dzięki naszym systemom klasy SIEM. Chociaż za infrastrukturę odpowiada PLK, my odpowiadamy za ludzi — każdego dnia na trasę wyjeżdża od 1700 do 1800 pociągów, więc skala odpowiedzialności jest ogromna.
Modernizujemy też tabor, wdrażając nowe systemy informacji pasażerskiej (tzw. SIP-y), co zwiększa liczbę potencjalnych wektorów ataku. Dlatego zabezpieczamy się, m.in. planując Wi-Fi dla pasażerów, z którego będziemy również czerpać dane do analiz — nie po to, by kontrolować pasażerów, ale żeby monitorować ruch danych, m.in. podczas przeglądów technicznych.
Budujemy też własny system sprzedaży biletów — rocznie obsługujemy ok. 100 milionów pasażerów, co oznacza ogromny potencjał do zastosowania AI. Mamy wideomaty i biletomaty — testujemy na nich chatboty i wideoboty, które mogą wspomagać obsługę pasażera.
Wyzwanie, przed którym stoimy, to ogromna liczba danych z wielu systemów. Chcemy te dane uporządkować, wyciągać z nich kluczowe informacje i analizować je w czasie zbliżonym do rzeczywistego. Dziś jest to praktycznie niemożliwe — a sztuczna inteligencja mogłaby to radykalnie przyspieszyć.
Jan Maria Kowalski, dyrektor Biura Rozwoju Sztucznej Inteligencji, Bank Pekao S.A.: Zaczęliśmy od szeroko rozumianego back office’u, czyli automatyzacji procesów operacyjnych. AI wspiera naszych pracowników. Odczytuje dokumenty, klasyfikuje je, przenosi dane między systemami. To jest klasyczna automatyzacja back office’u. W tym obszarze mamy także automatyczną analizę zgłoszeń. AI rozpoznaje kategorie sprawy i kieruje na właściwe ścieżki.
Drugi biegun to front office, czyli bezpośredni kontakt z klientem. Tam AI wspiera obsługę klienta poprzez chatboty, bazy wiedzy, asystentów głosowych i tekstowych. Obecnie testujemy asystenta w aplikacji mobilnej.
Bardzo ważny jest też temat hiperpersonalizacji, czyli dopasowania ofert do profilu klienta, którego stawiamy w centrum uwagi. AI może analizować potrzeby i zachowania klienta, a następnie dostosować komunikację i produkty bankowe.
Kolejny obszar to bezpieczeństwo. Analiza transakcji i wykrywanie anomalii, czyli szybkie rozpoznanie czy dana operacja jest potencjalnie oszukańcza i czy wymaga interwencji operatora.
Inwestujemy również w customer experience. Codziennie zbieramy tysiące opinii klientów o naszych produktach, usługach, aplikacji mobilnej. AI analizuje te dane, wyciąga wnioski i pozwala nam usprawniać nasze działania.
Ariel Zgórski, Ekspert AI, SpeakLeash / Bielik.ai: W ramach zespołu biznesowego odpowiadam m.in. za dokumentowanie use case’ów, więc widzimy w praktyce, gdzie i jak firmy wykorzystują modele AI.
Najczęściej spotykamy się z zastosowaniem chatbotów i rozwiązań do przetwarzania tekstu: automatyczne odpowiedzi na e-maile, rozpatrywanie reklamacji, analiza semantyczna treści — wszystko, co mieści się w obszarze back office’u. Tam, gdzie występuje potrzeba generowania lub rozumienia tekstu, AI może znacząco zautomatyzować procesy.
Iwona Kaim, Head of AI Transformation, współpracuje z USP Zdrowie: Przyjmujemy różne perspektywy na zastosowanie AI. Z jednej strony są to modele machine learning’owe, które pomagają m.in. w prognozowaniu sprzedaży i produkcji. Z drugiej strony wspieramy operacje związane z merchandisingiem — prowadzimy badania ekspozycji produktów na półkach.
Budujemy też asystentów dla naszych zespołów. Obecnie to głównie asystenci opierający się na danych tekstowych, ale planujemy również bardziej analityczne rozwiązania, pracujące na danych liczbowych. Dużą rolę odgrywa też automatyzacja procesów headoffice’owych.
Do transformacji AI podchodzimy w ten sposób, że dajemy pracownikom narzędzia, wiedzę i uczymy ich, jak z nich korzystać. To oni w dużej mierze eksperymentują na wielu polach i przychodzą do nas z pomysłami. Cześć rozwiązań przeszło już fazę eksperymentu i działa produkcyjnie, przynosząc wymierne korzyści.
Paweł Tatar, Manager, Business Application Developement Department, OBI Poland: W naszym przypadku materiał, z którym pracujemy, to tysiące artykułów i tysiące klientów, którzy odwiedzają nasze sklepy lub korzystają z kanałów e-commerce. Trzecią stroną są nasi pracownicy, którzy codziennie spotykają się z klientami —to nasza codzienna operacyjna rzeczywistość.
W branży retail innowacyjność jest potrzebna, ale musi być bardzo pragmatyczna. W każdym projekcie to 20% innowacji i 80% pragmatyzmu. Potrzebujemy rozwiązań, które rzeczywiście przynoszą wartość —pracownikom, klientom.
Dlatego stawiamy na rozwiązania, które naprawdę działają. Przykładem są voiceboty odbierające połączenia od klientów i odpowiadające na najczęstsze pytania. Gadżety nas nie interesują — liczy się efekt i realna wartość wdrożenia.
Adam Lach, CIO, CTL Logistics: Mamy pełen przekrój projektów AI — od wdrożonych i zmonetyzowanych, przez realizowane, aż po takie, które zostały zawieszone. Wybieraliśmy głównie tzw. „quick wins”. Skupiliśmy się na optymalizacji kosztów transportu kolejowego. Branża jest dziś trudna, marże są niskie, więc kto potrafi działać efektywniej, ma przewagę. Dzięki AI osiągamy konkretne oszczędności.
Pracujemy nad optymalizacją, systemami rekomendacyjnymi — wykorzystujemy do tego platformę do analiz danych i sztucznej inteligencji przy wsparciu dostawcy zewnętrznego, ale jednocześnie budując kompetencje wewnętrzne. Prowadzimy również pilotaż firmowej bazy wiedzy w formie RAG-a— jeden oparty na rozwiązaniu komercyjnym, drugi budowany własnymi siłami. Chcemy zobaczyć, które podejście lepiej się sprawdzi.
Podejmowaliśmy też próby wdrożeń w obszarze bezpieczeństwa, ale w tym wypadku szukamy zewnętrznego finansowania, bo to de facto projekt sektorowy. Zyskaliby wszyscy w branży, jeśli system zapobiegałby niebezpiecznej sytuacji na torach.
Przemysław Kowalicki, Sales Engineer, OpenText: W kontekście AI i uczenia maszynowego zajmujemy się głównie dostarczaniem odpowiednich metod pracy z danymi klientów. Pomagamy organizacjom w lepszym wykorzystaniu danych — szczególnie tych niestrukturalnych: tekstów, nagrań, danych multimedialnych, obrazów – w celu efektywnej integracji z modelami.
Naszym celem jest przygotowanie i organizacja danych, by modele mogły z nich wyciągnąć jak najwięcej. Praktyka pokazuje, że firmy częściej idą w stronę rozszerzania kontekstu i integracji danych, niż w dotrenowania własnych modeli — co bywa trudne, kosztowne i czasochłonne. My proponujemy budowę baz wiedzy opartych o zróżnicowane dane. Naszą specjalnością od zawsze były dane niestrukturalne — teksty, nagrania, materiały trudne do przetworzenia.
Działamy także w obszarze bezpieczeństwa —rozwiązań SIEM, analizy kodu oraz bezpieczeństwa danych – w tych obszarach również wykorzystujemy różne metody maszynowego uczenia.
Jakie były kryteria wyboru obszarów do wdrażania AI — i jak one się zmieniały? Może decydowała odwaga, inicjatywa biznesu?
Iwona Kaim: To jest jeden z elementów, ale nie on decydował o wyborze.
Zaczynaliśmy od tematów, które z jednej strony były dobrze przygotowane pod kątem danych, a z drugiej strony miały silny business case. To były duże, klasyczne projekty. Natomiast zaangażowanie biznesu dotyczyło bardziej mikroprojektów, mini-automatyzacji czy insourcingu usług, które wcześniej kupowaliśmy z zewnątrz.
Wszyscy podkreślają pragmatyzm. A co z przyzwoleniem na eksperymentowanie?
Jan Maria Kowalski: Trzy, może nawet cztery lata temu było dużo większe. Mieliśmy zgodę na tworzenie nowej jednostki R&D, budowaliśmy kompetencje, poznawaliśmy czym tak naprawdę jest sztuczna inteligencja i gdzie może nam pomóc. Nasza świadomość i rynku, a wewnętrzna, była wtedy zupełnie inna niż dziś. Eksperymentowaliśmy sporo i mieliśmy to szczęście, że te pierwsze próby zakończyły się sukcesem.
Dziś zdecydowanie przeważa pragmatyzm. Projekty muszą mieć wycenę, muszą wspierać strategiczne cele, m.in. optymalizację kosztów, bezpieczeństwo, jakość obsługi klienta. Jest też silna kontrola ze strony działów, zwłaszcza finansowych — czy dane rozwiązanie się zwróci. Już nie chodzi tylko o innowacyjność czy budowę kompetencji, ale o konkretne efekty biznesowe. Obecnie rozpoczynając projekt, trzeba przygotować solidny business case. To była droga nasza droga. Od eksperymentowania do pragmatycznych wdrożeń, ale każdy z tych etapów jest ważny, bo zbliża nas do osiągniecia zamierzonych celów.
Ariel Zgórski: Z perspektywy Spichlerza i biblioteki business case’ów – w podejściu firm jest dużo pragmatyzmu, choć wciąż zdarzają się eksperymenty.
Priorytety są w zasadzie dobrze znane: kontakt z klientem, optymalizacja kosztów. W tym kontekście spodziewam się wzrostu zainteresowania modelami open source, w szczególności, jeśli jest możliwość postawienia modelu we własnym data center. Widzę też, że wiele firm, które z rezerwą podchodziły do adaptacji AI, obecnie chce nadrobić szybko 2-3 etapy rozwoju, wykorzystując doświadczenia i dopracowane podejście pionierów.
Adam Lach: U nas każdy projekt zaczyna się od jakiejś formy eksperymentu. Z czasem przechodzi w duże wdrożenie albo zostaje zamknięty na etapie pilotażu.
Bazujemy też mocno na intuicji. Mamy obszary w działalności, które generują wysokie koszty — i przypuszczamy, że można je ograniczyć. Używając odpowiednich narzędzi AI, jesteśmy w stanie zoptymalizować cały proces.
Na ile łatwo jest zbudować business case? Z czasem pewnie coraz łatwiej, ale jak długo trwa dopracowywanie metody?
Paweł Tatar: W moim zespole mam deweloperów i programistów, którzy pracowali w różnych firmach branży retail i znają jej realia. To jest w naszym przypadku kluczem do sukcesu przy wdrażaniu innowacji.
Zaczęliśmy od back office’u i odkryliśmy tam szereg możliwości automatyzacji. Wiele z nich nie wymagało nawet AI — wystarczyło przejść na procesy elektroniczne, pozbyć się papieru, usprawnić obieg informacji. Cała organizacja dzięki temu stała się bardziej zwinna. Przestaliśmy być postrzegani jako „stara” firma — byliśmy gotowi na zmiany, które w handlu są przecież nieustanne.
Kiedy analizujemy nowe projekty, zawsze zadajemy pytanie: czy da się to zrobić bez angażowania nowych technologii? To podejście pozwala nam też lepiej zrozumieć, gdzie naprawdę potrzebujemy modeli AI i gdzie mogą one wnieść wartość dodaną.
Jesteśmy też częścią międzynarodowej korporacji, dlatego każdy projekt musi mieć wartość dla całej grupy. Polska jest postrzegana jako kraj, który potrafi wdrażać zwinne i dobre rozwiązania.
Dzięki automatyzacji odnieśliśmy sukcesy — nie chodziło o redukcję etatów, tylko o poprawę działania firmy. Teraz chcemy dać pracownikom nowe narzędzia.
Nie jesteśmy jednak na etapie, kiedy każdy może eksperymentować. Ponieważ wchodzi AI ACT, skupiamy się na edukacji naszych pracowników. Musimy ich nauczyć, jak z AI korzystać bezpiecznie.
Nasi pracownicy chcą stosować te narzędzia, ale czasem przy okazji publikują dane, których nie powinni. Musimy też uczulić ich na ryzyko halucynacji modelu.
Przemysław Kowalicki: Problem halucynacji to jeden z głównych problemów przy budowie business case’ów. Chodzi o to, jak mierzyć jakość tego, co dostajemy, i to w sposób automatyczny.
Danych jest zbyt dużo by polegać tylko na ocenie wydanej przez człowieka, brakuje także często ustrukturyzowanego frameworka do oceny, czy dane rozwiązanie jest odpowiednie, etyczne i spełnia oczekiwania. To utrudnia budowanie business case’u.
Drugim powtarzającym się problemem jest nieprzewidywalność kosztów wynikająca z dynamiki rynku.
Iwona Kaim: Budowanie business case’ów dla większych projektów jest w miarę proste. Znacznie trudniej o nie, kiedy mówimy o mini-automatyzacjach. Na przykład ktoś mówi, że dzięki narzędziu uwolnił 4 godziny tygodniowo. Ale po pierwsze — nikt nie mierzył, ile faktycznie zajmowały mu wcześniej te zadania. Po drugie — trudno zmierzyć, ile obecnie czasu oszczędza.
To nie są zadania jak na taśmie produkcyjnej, które powtarzają się w identycznej formie, dlatego najtrudniej jest to policzyć.
Z jednej strony dajemy więc przyzwolenie, że nie wszystko musi być automatycznie monitorowane i dokładnie rozliczane. Z drugiej — każda nowa funkcja czy narzędzie musi być uzasadnione, bo nie ma zgody na zwiększanie liczby etatów.
Jan Maria Kowalski: Podobnie było, kiedy zaczynaliśmy przygodę z robotyzacją. Uruchomiliśmy wtedy Akademię Robotyzacji. To była forma demokratyzacji narzędzi, tak jak dziś mówimy o demokratyzacji AI. Daliśmy pracownikom — nie z IT, ale z HR, ryzyka, oddziałów — możliwość tworzenia prostych robotów na własne potrzeby.
Wtedy też pojawiały się pytania: ile na tym zarobimy, ile zaoszczędzimy, jaka będzie produktywność? Unikałem odpowiedzi, bo było to niewycenialne. Mówiłem, że to inwestycja w rozwój cyfrowych kompetencji naszych pracowników, zmianę kultury organizacyjnej, może trochę potrzebowaliśmy czasu na uzyskanie wyników.
Dziś mamy pięć edycji akademii za sobą, w tym 70 absolwentów i nikt już nie kwestionuje jej wartości. Są przykłady, że ktoś stworzył robota, który oszczędził ogromne ilości czasu czy pracy. To wszystko da się policzyć. Ale były też inwestycje, które się nie zwróciły.
Teraz, przy demokratyzacji AI, jest podobnie. Pracownicy mają dostęp do co-pilotów, narzędzi AI w pakietach biurowych. Zarządy firm już tego nie kwestionują. Wiedzą, że to jest przyszłość i że trzeba budować nowoczesne oraz cyfrowe środowisko pracy.
Adam Lach: Zarządy tak — są przekonane do tych inwestycji. Ale niżej w organizacji, gdy zaczynamy mierzyć wszystko bardzo skrupulatnie i mówić o oszczędnościach, pojawia się niepokój. Ludzie zaczynają się obawiać, że coś się za chwilę zmieni na ich niekorzyść.
U nas też pojawiły się projekty optymalizacyjne, które miały wpływ na struktury zespołów. Nie było zwolnień, ale były sytuacje, gdzie np. ktoś odszedł na emeryturę i nie trzeba było zatrudniać nikogo na jego miejsce, bo rozwiązanie oparte na platformie AI przejęło część tych obowiązków.
Ale są też projekty, w których AI umożliwiało realizację rzeczy, których ludzie po prostu nie byli w stanie obsłużyć bez automatyzacji. Wówczas ten lęk znika, bo widać, że AI nie zabiera pracy, tylko umożliwia rozwój.
Michał Maciejski: Od kilku lat próbujemy, mamy kilka świetnych autopilotów, ale mimo to cały czas musimy udowadniać, że warto. Kolejarze zwykli mówić: „Pociąg bez informatyki też pojedzie do przodu”. Są to przy tym tematy nowe i trudne do oszacowania, dlatego trudno przekonać do nich zarząd.
Za każdym razem pojawia się pytanie: „A co to nam da?”. I jak oszacować korzyść finansową z podniesienia poziomu bezpieczeństwa? Albo wpływ na pracę pracowników? Tego nie da się łatwo przeliczyć i przedstawić radzie nadzorczej, ile zarobiliśmy.
W jednym z projektów wdrożyliśmy automatyczny system do tworzenia harmonogramów dla drużyn konduktorskich i maszynistów. Na początku napotkaliśmy duży opór, dyspozytorzy bali się, że stracą pracę. Ale okazało się, że to nieprawda — system po prostu im pomaga, nie muszą już ręcznie generować setek dokumentów miesięcznie. I teraz to procentuje, bo pracownicy zaczęli sami zgłaszać nowe potrzeby. Chcą więcej takich rozwiązań.
Czy zauważacie, że z czasem rośnie odsetek udanych projektów?
Adam Lach: Zaczynaliśmy od projektów najbardziej oczywistych, które miały największą szansę powodzenia. Teraz wchodzimy w tematy trudniejsze. Zaczęliśmy na przykład projekt predictive maintenance, który został wstrzymany, ponieważ nie mieliśmy odpowiednio dużo danych, oraz część danych które posiadamy wymagały przemodelowania.
Pomimo, że mamy pełne IoT, monitorujemy parametry taboru, historię awarii, ten projekt dowiódł nam, że kluczowym elementem skutecznego wdrożenia predictive maintenance jest jakość i struktura danych. Obecnie porządkujemy je we właściwy sposób i planujemy wrócić do tematu za rok.
Są zatem projekty udane i takie, które będą mogły się udać za jakiś czas.
Temat predictive maintenance jest z kolei prostszy niż np. pełna optymalizacja całego biznesu kolejowego — planowanie pociągu, maszynisty, taboru itd. Tam jest ogromny potencjał, ale i ogromna złożoność.
Jan Maria Kowalski: Kluczowe jest to, jak definiujemy cel i zakres projektu. Często wokół AI pojawiają się przesadne oczekiwania — że zrewolucjonizuje cały biznes, obsługę klienta, sposób działania firmy. Sam widziałem projekty planowane z ogromnym rozmachem na lata. A dostawcy mówią wtedy: „Zacznijmy od czegoś małego, zbudujmy MVP, potem rozwijajmy”. I to się sprawdza. U nas kluczem do sukcesu było zaczynanie od rzeczy konkretnych, praktycznych, od wybranych funkcjonalności, które już działają. I na ich bazie budujemy coś większego.
Iwona Kaim: Zgadzam się. Widzę też inną korzyść z projektów AI — dzięki nim dane są wreszcie zebrane, ustrukturyzowane albo przynajmniej w procesie digitalizacji. Dzięki wdrażaniu AI biznes w końcu widzi, jak naprawdę wygląda proces. A przy okazji upraszczamy te procesy.
Korzyści zaczną się skalować, gdy w firmie pojawi się większe zrozumienie, jak działa AI i jakie może przynosić efekty. Gdy minie opór, który często wynika z lęku przed zmianą.
W tym roku uruchomiliśmy program ambasadorski. Wybraliśmy osoby z różnych działów, które już korzystają z narzędzi — naszych lub zewnętrznych — i szkolimy je dodatkowo. Uczestniczą w projektach, eksperymentów, z których następnie wybieramy rozwiązania strategiczne dla naszej marki.
Ariel Zgórski: Warto podkreślić wątek danych — ich zbierania i budowy bazy. To częsta sytuacja, kiedy pojawia się jakieś rozwiązanie, natychmiast jest oczekiwanie: „Dobra, to działa, róbmy”. A dane? Jakość danych? – „jakoś” to będzie. I to jest droga do porażki.
Paweł Tatar: W przypadku retailu jest inaczej – danych jest bardzo dużo. Zbieramy od lat odpowiednie dane, aby analizować zwyczaje zakupowe czy inne aspekty związane z obsługą klienta. Problemem jest jednak ich rozproszenie.
Nasze sklepy są w całej Polsce, informacje są zbierane w różnych systemach, a interwały ich gromadzenia są różne. Trudno je zunifikować, by stworzyć spójne rozwiązanie. Nasz zarząd kilka lat temu wpadł na bardzo dobry pomysł — sięgnął po metodykę Lean. Nie szukaliśmy jednak zewnętrznych firm, które miałyby nam mówić, co robimy źle. Zaczęliśmy od poznania metody, a potem sami ją wdrażaliśmy.
I to zadziałało.
Może właśnie dlatego nie mamy zbyt wielu porażek —nie porywaliśmy się na zbyt spektakularne wdrożenia, nie rzucaliśmy się od razu na skomplikowane modele AI. Czasem wystarczyło dobrze przeanalizować proces, zauważyć, co robimy źle, i to uprościć.
Teraz dojrzewamy do tego, żeby sięgnąć po sztuczną inteligencję. Wiele procesów już poprawiliśmy, ale AI może nam pomóc wejść na wyższy poziom.
Paweł poruszył bardzo ciekawy trop —budowanie wewnętrznego potencjału organizacji. Chciałbym zapytać Was: co można by nazwać takim „kapitałem startowym” firmy, która chce rozpocząć przygodę z AI?
Adam Lach: Jesteśmy świeżo po dużym projekcie cyfryzacji całej firmy — trwał 3–4 lata. Udało nam się zdigitalizować praktycznie całą organizację — ponad 80% procesów. Dzięki temu, że przeszliśmy tę transformację, nasi pracownicy rozumieją już, co dają narzędzia cyfrowe. Widzą, jak bardzo firma się zmieniła. I teraz sami do nas wracają, pytają: „Może moglibyśmy coś zoptymalizować jeszcze tutaj?”
Więc odpowiadając na Twoje pytanie — najważniejsi są ludzie i ich świadomość. To jest fundament.
Przemysław Kowalicki: To jest trudne, bo już na etapie definiowania projektu — na przykład POC-a — potrzeba ludzi, którzy znają zarówno potencjał, jak i ograniczenia danej metody. Często autor scenariusza nie ma tej świadomości, nie zna ram, w których można się poruszać, i później okazuje się, że czegoś nie da się zrobić, albo że rozwiązanie się nie skaluje.
I teraz najważniejsze pytanie: czy to rozwiązanie można łatwo przenieść na kolejne 3–4 scenariusze w organizacji? Czy da się je adaptować? Czy też każdy nowy przypadek będzie wymagał od zera nowego, specyficznego rozwiązania?
To jest kluczowe zagadnienie przy dobrze zdefiniowanym zakresie projektu — żeby rozumieć, co można powtórzyć i skalować, a co będzie wymagało za każdym razem nowego kosztu i nowej architektury.
Ariel Zgórski: Bardzo pomaga fakt, że dziś wiele narzędzi AI można używać prywatnie.
Im więcej osób korzysta prywatnie z narzędzi AI, tym lepiej. To buduje świadomość — również ograniczeń tych technologii. Problem w tym, że obecnie tylko ok. 2% ludzi używa ich codziennie w świadomy sposób.
Jeśli ten odsetek wzrośnie, to przełoży się na większe zrozumienie i gotowość do wykorzystywania AI w firmie.
Michał Maciejski: To bardzo ważna obserwacja. Projektując strategię adaptacji AI, planując portfele projektów, trzeba myśleć o końcowym użytkowniku. O tym, jakie ma doświadczenia, z jakiego poziomu startuje.
Paweł Tatar: Tyle że niestety większość ludzi używa AI w sposób, który nie uświadamia im halucynacji modelu.
Prywatne doświadczenie to dobry początek, ale nie wystarczy. Potrzebny jest nadzór, edukacja i praktyczne przykłady. W stresujących sytuacjach, pod presją, nie będziemy się zastanawiać, czy odpowiedź AI jest poprawna. Skorzystamy z niej odruchowo. I właśnie dlatego ta wiedza musi być zdobyta wcześniej — by w krytycznym momencie zadziałała automatycznie: „Sprawdzam to. To może być halucynacja.”
Ariel Zgórski: Ważne jest też uświadamianie kwestii etycznych i jakościowych — że modele mogą reprezentować uprzedzenia, że nie zawsze mówią prawdę. Wiele nam mówi przykład z Perplexity —okazało się, że szereg cytowanych danych to aproksymacje – nie istnieją w źródłach.
Z rozmów z AI można czerpać inspirację, znajdować obszary do optymalizacji — ale trzeba wiedzieć, jak z tym pracować.
Iwona Kaim: Rok temu wdrożyliśmy pierwszą politykę korzystania z narzędzi AI. Nie odcinamy dostępu — bo wiemy, że ludzie i tak będą z nich korzystać, choćby z prywatnych telefonów. Wolimy więc mieć jasno określone zasady.
Organizujemy też webinary we współpracy z działem prawnym. Jeżeli w konkretnych działach pojawiają się szczególne potrzeby, to dopasowujemy do nich edukację.
Poza edukacją wszystkich pracowników, ważne jest też zaangażowanie działów takich jak infrastruktura i cyberbezpieczeństwo. Trzeba właśnie z nimi wypracować wspólną ścieżkę — między ochroną a otwartością na rozwój.
W wywiadzie dla ITwiz Stanisław Karpiński, były CIO Home & You, opowiadał, że świetnie sprawdzały mu się tzw. fusion teams — zespoły mieszane. Czy u Was to działa?
Iwona Kaim: Zawsze. Wszystkie nasze projekty realizujemy właśnie w takim układzie — biznes plus IT. Inaczej to nie ma prawa się udać.
Paweł Tatar: Jeśli organizacja ma „silosy”, to ma też ogromny problem z wdrażaniem jakichkolwiek zmian. Pierwszym krokiem jest zatem wyeliminowanie tych barier.
Wspominałem o naszych deweloperach — to ludzie, którzy mają doświadczenie w retailu. Dzięki temu siadają z kierownikami, z kupcami i potrafią zrozumieć, co się naprawdę dzieje w firmie. Wiedzą, na czym polega nasza działalność — i mogą zaproponować coś, co będzie jednocześnie technologicznie sensowne i przyjazne dla pracownika albo klienta.
A jak oceniacie zarządzanie dynamiką portfela projektów AI?
Iwona Kaim: Modele cały czas się zmieniają, pojawiają się nowe, coraz bardziej zaawansowane — i droższe. Więc u nas z jednej strony patrzymy na skuteczność narzędzia, a z drugiej — czy koszty jego utrzymania nie przekraczają korzyści.
Nasza polityka jest dość uniwersalna, więc dopóki nie wejdą nowe regulacje prawne, nie musimy jej zbyt często aktualizować. Ale mamy tzw. „white list” narzędzi dopuszczonych do użytku, z określonymi warunkami, regularnie aktualizowaną.
Co do dynamiki samych projektów — działamy w oparciu o roczną mapę drogową, ale oczywiście reagujemy na bieżąco. Może się pojawić nowe rozwiązanie, nowe potrzeby, albo okazuje się, że coś nie działa wystarczająco dobrze. Na przykład ostatnio przeszliśmy z architektury klasycznej na agentową — bo wcześniejsze podejście nie dawało oczekiwanych efektów.
Przemysław Kowalicki: Dynamika często wynika też z tego, że same modele robią coraz więcej — i coraz bardziej specyficznych rzeczy. To duże wyzwanie np. dla startupów, które opierają swój produkt o model AI. Co zrobić, jeśli przy kolejnym wydaniu modelu jego „core” się zmienia i dostarcza funkcje, które zostały zaimplementowane w produkcie? Model robi coś nowego — albo inaczej. I nagle cały produkt trzeba przebudować. Stąd też presja, żeby nie tylko wdrażać AI, ale robić to elastycznie.
Jan Maria Kowalski: Presja ze strony biznesu także robi swoje. Nikt nie będzie już czekał trzech lat na efekty, jak przy wdrażaniu nowego systemu ERP czy CRM. Oczekuje się wyników w tygodniach, maksymalnie kwartałach.
Dlatego coraz częściej przechodzimy z podejścia projektowego na produktowe. Nie mówimy „zróbmy chatbota za rok”, tylko „zróbmy jego wersję bazową za 3 miesiące, postawmy konkretne KPI i sprawdźmy efekty”. W naszym banku inicjatywy planujemy kwartalnie —produkty AI mają wyznaczone konkretne cele biznesowe i na koniec każdego kwartału są one rozliczane. Jeśli spełnione zostały założenia, idziemy dalej. Jeśli nie, wprowadzamy korekty.
To wymusza iteracyjne podejście, dużo bliższe użytkownikowi końcowemu. Nie chodzi tylko o wdrożenie systemu, ale o to, jaką realną korzyść dostarczy użytkownikowi. Kompetencje zarządzania portfelem inicjatyw AI warto budować poprzez ciągłe, zwinne dostosowanie się do zmieniającej się technologii i oczekiwań.
Skoro mówimy o doświadczeniach — kilka razy pojawił się wątek systemów lokalnych, RAG-ów, słowników, baz wiedzy i danych. Zastanawiam się, czy patrzycie na tę fuzję symbolicznej AI z generatywną sztuczną inteligencją jako na obiecujący kierunek?
Przemysław Kowalicki: Tylko nie wiem, jak to się rozwinie w przyszłości — czy metody generatywne nie nauczą się reprezentować wiedzy na tyle dobrze, że wchłoną wiele z tych „old schoolowych” podejść.
Adam Lach: One już się w niektórych obszarach integrują. Na przykład w analizach controllingowych. Testowałem ostatnio moduł, który wypełniłem danymi o rynku kolejowym który udostępnia publicznie (Urzędu Transportu Kolejowego). N naprawdę byłem zaskoczony, jak sensowne analizy potrafił ten moduł wygenerować.
Ariel Zgórski: Tak, ale jeśli korzystamy z GenAI, to musimy pamiętać — taki model nigdy nie odpowie 0 albo 1. On powie 0,999 i pozostaje niepewność. Zatem wybór narzędzia zależy od kontekstu — jeśli kluczowa jest precyzja, to może to nie wystarczyć. Ale jeśli potrzebna jest szybka decyzja biznesowa, przybliżona odpowiedź może być w sam raz.
Iwona Kaim: My też testujemy różne modele. Ale wiele osób, które ich używają, nie ma jeszcze wystarczającej wiedzy analitycznej, by w pełni zaufać temu, co model podpowiada. Skupiamy się teraz na rozwoju architektury agentowej, bo klasyczne podejście przestaje działać przy dużej skali i złożoności danych.
Najpierw rozwijamy fundamenty i dopiero kiedy będą z nich korzystać ludzie, którzy rozumieją modele na poziomie, który pozwala im działać samodzielnie i odpowiedzialnie, będzie sens iść dalej.
Jan Maria Kowalski: Większość naszych rozwiązań oparta była o klasyczne podejście: przetwarzanie języka naturalnego. Zbudowaliśmy szereg modeli do analizy tekstu, np. klasyfikacji wypowiedzi, analizy sentymentu, wykrywania mowy nienawiści. Klient pisał opinię o bankowości mobilnej np. „fajna jest ta nowa wersja aplikacji, ale Bielik mi nie działa” — klasyczny model powiedziałby „negatywna opinia”. A GenAI zrozumie, że klient chwali design, ale narzeka na jedną funkcjonalność. To podejście jest dokładniejsze i bardziej zniuansowane.
Dlatego uzupełniliśmy nasze dotychczasowe rozwiązania o super moce modeli generatywnych. Budujemy też jeden prosty i intuicyjny interfejs dla użytkowników w formie czatu. Nie trzeba już wchodzić w specjalistyczne systemy czy narzędzia, żeby skorzystać z zaawansowanych funkcjonalności AI. Teraz można dodać plik do czata i porozmawiać z dokumentem. Rozwijamy platformę agentów AI, które mogą działać w oparciu o GenAI oraz specjalistyczne modele, np. wyszukują podpis klienta w umowie, lokalizują dokument tożsamości w skanach, generują notatki ze spotkań.
Czy spotkaliście się już z deficytem danych?
Adam Lach: Wydaje mi się, że kolej ma sporo danych, ale są branże — jak transport samochodowy — które szybciej robią z nich użytek. Na konferencjach logistycznych widać, że te firmy potrafią się łączyć, tworzyć wspólne systemy — na przykład giełdy zleceń, które optymalizują trasy, przesiadki kierowców, wykorzystanie sprzętu. Kierowca jedzie tylko część trasy, wraca innym tirem i jest wieczorem w domu. Sam sprzęt jest cały czas w ruchu — nie stoi na parkingu. To jest synergia, której w kolei jeszcze dzisiaj brakuje.
Paweł Tatar: W retailu mamy inny punkt widzenia —cały czas jesteśmy otwarci na gromadzenie coraz większej ilości danych. Jest tyle regulacji, które po prostu nas zmuszają. To nawet nie jest kwestia, czy my chcemy rozwijać naszą sprzedaż, są rzeczy, które musimy ewidencjonować, które musimy sprawdzać.
Czego życzyć ludziom, którzy są zaangażowani w to, żeby AI służyło rzeczywiście firmom?
Iwona Kaim: Żeby koszty i regulacje nas nie zjadły.
Paweł Tatar: Właśnie to — będziemy się zastanawiać. Nauczymy się pracować z NIS-em, nauczymy się pracować z AI ACT, to będziemy wiedzieli, co nam wolno.
Jan Maria Kowalski: Ważne, żebyśmy faktycznie pokazali w tym roku, że AI działa i dostarcza wartość biznesową.
Przemek Kowalicki: Ja życzyłbym sobie zdrowej mieszanki optymizmu, otwartości, ale z taką nutką sceptycyzmu — zdrowego. I wtedy będzie dobrze.
Ariel Zgórski: Według mnie ciągle robimy za mało, za długo czekamy na coś nowego – i jako rynek nie wyciągamy z obecnej technologii nawet promila możliwości, które już oferuje.