CXO HUBSztuczna inteligencjaCIOPolecane tematy
CXO HUB: Jak wreszcie zarobić na AI?
Zorganizowane wspólnie z firmą OpenText spotkanie CXO HUB zgromadziło czołowych menedżerów polskich firm w celu przedyskutowania jednego z najbardziej palących pytań, przed którym stoi biznes – jak zadbać o to, aby projekty AI faktycznie przynosiły oczekiwane korzyści nie tylko na etapie pilotażu, ale w skali całej organizacji.

Spotkanie rozpoczęło się od przypomnienia statystyk, w tym głośnego raportu MIT NANDA „State of AI in Business 2025″, aż 95% firmowych inwestycji w generatywną AI nie przyniosło korzyści. To szokująca liczba, która stawia pod znakiem zapytania obecny entuzjazm wobec technologii.
Kolejne dane nie były bardziej optymistyczne. Raport Accenture wskazał na dramatyczne pogorszenie wydajności pracy w Unii Europejskiej względem Stanów Zjednoczonych – o 9 punktów procentowych w ciągu zaledwie roku. Oznacza to, że wydajność europejskiego pracownika stanowi obecnie tylko trzy czwarte wydajności jego amerykańskiego odpowiednika. Paradoksalnie, aż 56% firm w UE nadal nie wdrożyło żadnej znaczącej inwestycji w AI.
Te liczby stały się punktem wyjścia do dyskusji o tym, jak budować fundamenty inwestycji w AI, które rzeczywiście przyniosą zysk, jakie kompetencje zwiększą prawdopodobieństwo sukcesu oraz czy otwarcie na AI zwiększa ekspozycję na cyberataki.
Od wizji do wartości biznesowej
Pierwsza część rozmowy, w której udział wzięli Jaromir Pelczarski, VP Chief Transformation Officer w firmie Diagnostyka oraz Aleksander Poniewierski, ekspert biznesu i nowych technologii z APC Consulting szybko skupiła się na fundamentalnej różnicy między decyzjami racjonalnymi a optymalnymi w kontekście oceny wyników dostarczanych przez modele AI. Aleksander Poniewierski zauważył, że narzędzia generatywnej AI dostarczają efekty, które są często „racjonalnie odpowiednie i wystarczająco dobre”. Jego zdaniem cały świat wpada w pułapkę, traktując takie odpowiedzi jako lepsze niż te, które ludzie mogliby stworzyć samodzielnie.
W Diagnostyce wartość AI polega przede wszystkim na konsolidacji informacji, co pozwala lekarzom szybciej dochodzić do wniosków, obsłużyć większą liczbę pacjentów lub zrezygnować z wizyty, kiedy to niepotrzebne.
Jaromir Pelczarski, Chief Transformation Officer, VP, Diagnostyka
Jaromir Pelczarski wniósł do dyskusji perspektywę branży medycznej, gdzie stawka jest szczególnie wysoka. Podkreślał, że w jego sektorze zaufanie do narzędzi AI jest mocno ograniczone, szczególnie w kontekście „praktyki bardzo nieprzewidywalnych przypadków”. „Medycyna nie jest nauką ścisłą. Medycyna jest sztuką doświadczeń” – mówił Jaromir Pelczarski.
Odniósł się również do problemu halucynacji modeli AI, przedstawiając prowokacyjną perspektywę: „Same modele generatywnej AI ani nie halucynują ani nie kłamią, ponieważ one nie wiedzą co to jest prawda” – mówił. To stwierdzenie wywołało ożywioną dyskusję o naturze AI i odpowiedzialności za jej wdrożenia.
Narzędzia generatywnej AI dostarczają efekty, które są często „racjonalnie odpowiednie i wystarczająco dobre”. Cały świat wpada w pułapkę, traktując takie odpowiedzi jako lepsze niż te, które ludzie mogliby stworzyć samodzielnie.
Aleksander Poniewierski, ekspert biznesu i nowych technologii z APC Consulting
Uczestnicy rozmowy zidentyfikowali dwa główne rodzaje wartości generowanej przez AI: zwiększenie utylizacji zasobów (efektywność) oraz nowe przychody (nowe produkty i usługi). Jaromir Pelczarski wskazał, że w diagnostyce wartość AI polega przede wszystkim na konsolidacji informacji, co pozwala lekarzom szybciej dochodzić do wniosków, obsłużyć większą liczbę pacjentów lub – co równie ważne – dać spokój tym, którzy nie muszą iść do lekarza.
Ile można zarobić, a ile można stracić?
O podnoszeniu prawdopodobieństwa sukcesu projektów AI rozmawiali następnie w panelu dyskusyjnym „Ile można zarobić, a ile można stracić?” przedstawiciele czołowych polskich firm: Karol Tajduś, dyrektor AI w Pekao SA, Przemysław Kowalicki, inżynier z OpenText, Karim Sylla, dyrektor obszaru Analytics and GenAI D w Żabka Polska oraz Przemysław Koch, CIO w Velo Banku. Dyskusja skupiła się na motywacjach zarządów i biznesu do wdrażania AI.
Z czasem odejdziemy od aplikacji okienkowych, od aplikacji z formularzami, z polami, przyciskami. Będziemy tworzyć aplikacje konwersacyjne, będziemy rozmawiać z aplikacjami.
Przemysław Koch, CIO w Velo Bank
Dyskusję o motywacjach do wdrażania sztucznej inteligencji w polskich firmach rozpoczął Karim Sylla z Żabki. „Najsilniejszą motywacją jest FOMO. Wszyscy się boją, że zostaną z tyłu” – stwierdził dyrektor obszaru Analytics and GenAI w Żabce. Jak wyjaśnił, dziś ta obawa wynika z faktu, że wdrożenia AI pozwalają już uzyskać realną wartość biznesową. Nawet jeśli, rozwiązania nie są jeszcze w pełni dojrzałe i mają wady, w tym halucynacje, da się w wybranych przypadkach osiągnąć znaczące rezultaty. Karim Sylla podkreślił, że nawet jeśli szereg projektów się nie uda, te które się powiodą oferują pokaźny zwrot z inwestycji.
Obserwujemy zjawisko, które kilka lat temu pojawiło się w obszarze analityki i AI – demokratyzację kompetencji, gdzie każdy mógł pełnić rolę analityka; obecnie to samo ma miejsce w przypadku GenAI i agentów.
Karim Sylla, dyrektor obszaru Analytics and GenAI w Żabka Polska
Karol Tajduś zwrócił uwagę na inną cechę AI. „AI działa jako “disruptor”” – zauważył Chief AI Officer Pekao SA. W jego opinii prawdziwą wartością sztucznej inteligencji jest dostrzegana właśnie możliwość przeprojektowania procesów, które narosły w firmach przez lata różnych decyzji i zdarzeń. Gdy zarząd decyduje się na wdrożenie AI, pojawia się okazja do rewizji danego procesu i eliminacji zaszłości procesowych.
Karol Tajduś zwrócił jednak także uwagę, że AI stało się wygodną wymówką. „Wiele firm na świecie prowadzi masowe zwolnienia, które tłumaczy wdrażaniem AI. W czasach kryzysu łatwiej jest wytłumaczyć rynkowi i akcjonariuszom redukcje zatrudnienia, wskazując na AI, jako przyczynę” – zauważył.
Technologia, która wszystko zmieni
Przemysław Koch z Velo Banku przyjął najbardziej zdecydowane stanowisko. „To technologia, która pozwala budować przemianę biznesową na skalę, która była nieosiągalna” – stwierdził CIO Velo Bank. Oczywiście, jak każda technologia, kryje pułapki, ale przy dobrym przygotowaniu scenariusza użycia, wartość dodana jest oczywista.
Prawdziwą wartością z wdrożenia sztucznej inteligencji jest możliwość przeprojektowania procesów, które narosły w firmach przez lata różnych decyzji i zdarzeń. Gdy zarząd decyduje się na wdrożenie AI, pojawia się okazja do rewizji danego procesu i eliminacji zaszłości procesowych.
Karol Tajduś, Chief AI Officer, Pekao SA
Przemysław Koch przypomniał, że istnieją sposoby radzenia sobie z problemem halucynacji: można tworzyć rozwiązania pracujące w „temperaturze 0” dla modelu językowego, co oznacza zerową przestrzeń na kreatywność. Dodatkowo pojawił się koncept Agentic AI, gdzie rozwiązania bazują na agentach, które wzajemnie się kontrolują i weryfikują jakość, zanim efekt pracy zostanie przekazany człowiekowi. „Uważam, że ci, którzy prześpią obecny moment i nie będą wdrażać AI, mogą być potem, mówiąc wprost, wypaść z biznesu” – podkreślił.
Nawet najbardziej inteligentny system AI wdrożony w organizacji nie ma szansy powodzenia, jeśli użytkownicy nie uczestniczą w współtworzeniu tych narzędzi
Przemysław Kowalicki, inżynier z OpenText
Przemysław Kowalicki podkreślił, że kluczowy jest aspekt zaufania. „Jesteśmy w stanie dużo wygrać, jeżeli użytkownik końcowy zaufa tym metodom” – zauważył. Każda firma ma swoich klientów, czy to wewnętrznych, czy zewnętrznych, i tylko metody, którym ci użytkownicy zaufają, mają szansę na sukces. Nawet najbardziej inteligentny AI wdrożony w organizacji nie ma szansy powodzenia, jeśli użytkownicy nie uczestniczą w współtworzeniu tych narzędzi.
Strategia czy eksploracja
Ciekawą kwestią jest wybór podejścia adaptacji: eksploracyjnego lub strategicznego. I które jest lepsze – eksploracyjne, kiedy małymi krokami sięga się po nisko rosnące owoce, czy raczej strategiczne, ze zdefiniowanym centrum doskonałości, z budową polityki, z nadaniem reguł od samego początku?
Karol Tajduś odpowiedział bez wahania: „Oba podejścia powinny istnieć koło siebie”. To, że trzeba skupić się na budowaniu centrum kompetencji, tworzyć polityki i governance, nie oznacza, że przestaje się eksperymentować, robić MVP czy współpracować codziennie z biznesem.
Karim Sylla zwrócił uwagę, że na wybór podejścia ma wpływ demokratyzacja AI: „Obserwujemy zjawisko, które kilka lat temu pojawiło się w obszarze analityki i AI – demokratyzację kompetencji, gdzie każdy mógł pełnić rolę analityka; obecnie to samo ma miejsce w przypadku GenAI i agentów”.
Przemysław Koch także zgodził się z hybrydowym podejściem. „Jeżeli byśmy chcieli się skupić tylko i wyłącznie budowie fundamentów polityki i strategii, to nie uda się tej formy wypełnić treścią. Dlatego równolegle prowadzone są małe kroki, budowa świadomości i kompetencji podczas wdrażania rozwiązań – to najlepsza droga do przeprowadzenia transformacji organizacji” – powiedział CIO Velo Bank.
Przykłady wdrożenia w bankach i handlu
CIO Velo Banku szczegółowo opisał ścieżkę wdrożeń. W Velo Bank zaczęli od projektów prostych chatbotów. Pierwszy bot został stworzony dla analityków kredytów hipotecznych zajmujących się produktem kredytowym. Rozwiązanie zadziałało, więc powstały inne chatboty dla innych produktów i linii biznesowych. Kolejnym krokiem było automatyzowanie pracy z dokumentami nieustrukturyzowanymi. Do banku wpływa bardzo dużo dokumentów od klientów, w tym reklamacji. „Stworzyliśmy kilku agentów, jeden klasyfikuje, przekazuje do zespołów, dysponujących własnymi agentami przygotowującymi akceptowane przez człowieka odpowiedzi na reklamacje” – wyjaśnił Przemysław Koch.
Bank ma już kilkanaście rozwiązań pracujących na produkcji, zarówno w back office’ie wspierającym pracowników, jak i na froncie, w aplikacji mobilnej, gdzie klienci znajdą asystentkę wirtualną Velę. Można jej zadać każde pytanie dotyczące finansów osobistych i dostać odpowiedź od razu. Przemysław Koch podkreślił, że według niego to kierunek przyszłości. „Odejdziemy od aplikacji okienkowych, od aplikacji z formularzami, z polami, przyciskami. Będziemy tworzyć aplikacje konwersacyjne, będziemy rozmawiać z aplikacjami” – przewidywał przyszłość interfejsów.
Karim Sylla opisał przykład analizy customer voice w Żabce. „Żabka ma ponad dwanaście tysięcy sklepów i w Google Maps średnio kilkadziesiąt opinii dla każdego sklepu. Bez GenAI zadanie przeczytania i kategoryzacji setek tysięcy opinii według kryteriów takich, jak czystość w sklepie, zadowolenie z oferty czy wyposażenia, byłoby niemożliwe do wykonania. Z GenAI można iteracyjnie odkrywać kategorie, sprawdzać trendy i wyciągać praktyczne wnioski” – mówił.
Panel poruszył jeszcze szereg ciekawych wątków, m.in. percepcji biznesu, perspektywy zarządu, budowy governance czy kwestii cybersuwerenności.
Perspektywa bezpieczeństwa: AI jako zagrożenie
Po przerwie Piotr Graszka, Lead Solutions Consultant z OpenText, przedstawił perspektywę cyberbezpieczeństwa w świecie powszechnego wykorzystania sztucznej inteligencji. W praktyce, AI staje się nowym poważnym zagrożeniem, które na przykład w raporcie McKinsey pojawia się jako jeden z głównych czynników ryzyka do 2030 roku. Wynika to z faktu, że AI znacząco ułatwiło pracę atakującym, zwiększając szybkość i wyrafinowanie technik unikania systemów zabezpieczeń oraz samą powierzchnię ataku. Piotr Graszka wskazał, że narzędzia AI w rękach cyberprzestępców mogą generować złośliwy kod oraz różnego rodzaju zaawansowane ataki phishingowe i inne formy oszustw.
Narzędzia AI w rękach cyberprzestępców mogą generować złośliwy kod oraz różnego rodzaju zaawansowane ataki phishingowe i inne formy oszustw.
Piotr Graszka, Lead Solutions Consultant z OpenText
Jednocześnie, jednym z największych problemów z perspektywy cyberbezpieczeństwa okazuje się zjawisko Shadow AI, czyli de facto nieautoryzowane i niekontrolowane używanie narzędzi AI w organizacjach. Statystycznie około 80% firm nie kontroluje używania AI w swoim środowisku, co prowadzi do wycieków informacji i nieautoryzowanych dostępów. Piotr Graszka omówił również technikę jailbreak, czyli zmuszanie modelu AI do udostępniania informacji, które są niedozwolone, na przykład złośliwego kodu lub wrażliwych danych czy list haseł.
Debata oksfordzka: czy firmy bez AI wymrą?
Finałem spotkania była debata oksfordzka z mocną tezą: „Firma, która dziś nie wdroży szeroko rozwiązań AI będzie za 3 lata martwa”. W drużynie propozycji znaleźli się Robert Pławiak, Szef IT i Digitalizacji / Head of IT&Digital (CDIO) Polpharma, Leszek Bukowski, Chief AI Officer, VetApp oraz Piotr Ozga, CSO Polskiej Grupy Lotniczej (PGL). Z tezą polemizowali Janusz Sawicki, Security Sales Account Executive, OpenText Cybersecurity, Bartłomiej Gołębiowski, GPT Lab Lead, PZU oraz Adam Wojtaszek, Global Banking IT Manager, BNP Paribas.
Drużyna za tezą: AI jako warunek przetrwania
Drużyna broniąca tezy argumentowała, że AI jest już nowym standardem technologicznym, a brak wdrożeń prowadzi nieuchronnie do utraty konkurencyjności i ograniczenia efektywności działania.
Model AI można porównać do psa pasterskiego: zawsze pasterz, który ma psa, wygra z tym, który takiego psa nie ma.
Leszek Bukowski, Chief AI Officer, VetApp
Leszek Bukowski użył przystępnej metafory, porównując model AI do psa pasterskiego: „Zawsze pasterz, który ma psa, wygra z tym, który takiego psa nie ma” – mówił.
W farmacji czy lotnictwie cykle innowacyjne skróciły się z lat do miesięcy, a firmy nieefektywne zostaną pożarte przez konkurencję.
Piotr Ozga, CSO Polskiej Grupy Lotniczej (PGL)
Piotr Ozga wzmocnił ten argument danymi o przyspieszeniu innowacyjności w różnych branżach. Wskazał, że w farmacji czy lotnictwie cykle innowacyjne skróciły się z lat do miesięcy, a firmy nieefektywne „pójdą na pożarcie przez konkurencję”.
Firmy bez wdrożeń AI obumrą przez odpływ kompetencji i talentów. Najlepsi specjaliści będą odchodzić do firm, które wykorzystują nowoczesne technologie i oferują ciekawsze środowisko pracy.
Robert Pławiak, Szef IT i Digitalizacji / Head of IT&Digital (CDIO) Polpharma
Robert Pławiak z Polfarmy dodał kolejny wymiar: firmy bez AI obumrą przez odpływ kompetencji i talentów. Najlepsi specjaliści będą odchodzić do firm, które wykorzystują nowoczesne technologie i oferują ciekawsze środowisko pracy.
Drużyna przeciw tezie: ostrożność zamiast hype’u
Drużyna obalająca tezę ostrzegała przed uproszczeniami i ślepym podążaniem za technologicznym hype’em. Argumenty członków tego zespołu były równie przekonujące.
Nieprzemyślane wdrażanie AI bez uporządkowanych danych jest gorszą decyzją, niż powolne, przemyślane przygotowanie. AI jest tak dobre, jak dane, na których pracuje.
Janusz Sawicki, Security Sales Account Executive, OpenText Cybersecurity
Janusz Sawicki argumentował, że nieprzemyślane wdrażanie AI bez uporządkowanych danych jest gorszą decyzją, niż powolne, przemyślane przygotowanie: „Ci, którzy nie wdrożą AI pochopnie i bez refleksji, ci właśnie będą zwycięzcami za trzy lata, ponieważ ich dane będą dobrze uporządkowane”. To nawiązanie do fundamentalnego problemu: AI jest tak dobre, jak dane, na których pracuje.
Liczne regulacje – jak RODO czy AI Act – uniemożliwiają dużym organizacjom wykorzystanie rozwiązań funkcjonujących na zasadzie „czarnych skrzynek”. Szybkie wdrożenia mogą więc prowadzić do konfliktów z przepisami i olbrzymich kar.
Bartłomiej Gołębiowski, GPT Lab Lead, PZU
Bartłomiej Gołębiowski wskazał na praktyczne bariery prawne. Liczne regulacje – jak RODO czy AI Act – uniemożliwiają dużym organizacjom wykorzystanie rozwiązań niewyjaśnialnych, funkcjonujących na zasadzie „czarnych skrzynek”. Szybkie wdrożenia mogą więc prowadzić do konfliktów z przepisami i olbrzymich kar.
Ślepa pogoń za AI podnosi ryzyko bezpieczeństwa, na przykład poprzez integrowanie się z otwartymi modelami bez odpowiedniej kontroli.
Adam Wojtaszek, Global Banking IT Manager, BNP Paribas
Z kolei Adam Wojtaszek podkreślił fundamentalną prawdę o rozwoju biznesu: „Rozwój biznesu to nie jest sprint, to zdecydowanie maraton, często wręcz sztafeta”. Ślepa pogoń za AI podnosi ryzyko bezpieczeństwa, na przykład poprzez integrowanie się z otwartymi modelami bez odpowiedniej kontroli.
Wnioski z debaty
Debata przerodziła się w dalszą dyskusję z publicznością o przyszłości implementacji AI. Bartłomiej Gołębiowski przypomniał kluczową prawdę: „Złe wdrożenia nie dadzą nam korzyści. Musimy się tego nauczyć” – mówił.
Jeden z uczestników debaty, nawiązując do firm lokalnych, zwrócił uwagę, że małe, przedsiębiorcze biznesy nie znikną, ponieważ „potrzeba przedsiębiorczości, tworzenia inteligentnej wiązki produktów i usług” – a to wymaga czegoś więcej niż tylko technologii.
Debatę wygrała zdecydowanie drużyna przeciwna tezie. Tym samym w końcowym głosowaniu publiczności, nastroje pozostały w większości niezmienione w stosunku do opinii początkowej, choć część uczestników pozostała niezdecydowana lub ostatecznie zgodziła się z odważną tezą debaty.
Odpowiedzialność zamiast paniki
Debata i cały przebieg dyskusji podczas spotkania CXO HUB ukazał fundamentalną prawdę: choć technologia AI jest już standardem i rewolucjonizuje procesy biznesowe, to klucz do sukcesu leży w odpowiedzialnym, strategicznym podejściu do danych i kompetencji, a nie w uleganiu panice i wdrażaniu AI bez refleksji i bez analizy ryzyka.
Trafna jest tu analogia historyczna: wdrożenia AI przypominają elektryfikację fabryk na początku XX wieku. Początkowo zwiększenie produktywności było niezauważalne – było tak dopóki technologia nie została głęboko zintegrowana z procesami, a nie tylko dodana jako centralny motor zastępujący maszynę parową.
Czy firmy bez AI wymrą za trzy lata? Prawdopodobnie nie wszystkie. Ale te, które nie rozpoczną przemyślanej transformacji, z pewnością będą miały coraz większe problemy z konkurowaniem. Pytanie nie brzmi „czy wdrażać AI?”, ale „jak to zrobić mądrze?”.






