Debata ITwizInfrastrukturaBiznesSprzętCIOPolecane tematy
Debata ITwiz: nowy rytm modernizacji infrastruktury IT?
W jakim stopniu nowe rozwiązania, w szczególności oparte na sztucznej inteligencji, wpływają na istniejące modele odnawiania sprzętu IT? Czy czeka nas fala modernizacji? Obszerny skrót debaty redakcyjnej zawiera tylko kilka wybranych wątków, które poruszono w dyskusji.
Szymon Augustyniak, z-ca redaktora naczelnego ITWIZ: Czy rytm modernizacji i odnawiania infrastruktury IT się zmienia? Czy nabiera tempa i staje się jednym z priorytetów firm?
Bartłomiej Pławczyk, IT Manager, McDonald’s Polska: Zarządzanie budżetem bezpośrednio przekłada się na zarządzanie flotą sprzętu i cyklem jego wymiany. Technologie takie jak sztuczna inteligencja czy Internet Rzeczy odgrywają w tym procesie kluczową rolę. Działamy na dużą skalę – obecnie mamy 550 restauracji, co oznacza tysiące jednostek sprzętu wymagających zarządzania i modernizacji.
Jerzy Zieliński, Director of IT, Amica Group: W Amica od dawna realizujemy cykliczną wymianę sprzętu i infrastrukturę zgodnie z założonym planem. Mamy opracowane narzędzia finansowe i procesy optymalizacji wymiany, obejmujące nie tylko sprzęt, ale także serwery, zabezpieczenia i inne kluczowe obszary IT.
Nasza strategia uwzględnia również fakt, iż dostawcą infrastruktury i sprzętu na poziomie Unii Europejskiej jest dedykowana spółka celowa. Optymalizujemy wymianę sprzętu w zaawansowany sposób.
Piotr Burzyński, Head of Global IT Infrastructure, SPS: SPS działa w wielu krajach na świecie, koncentrując się na przetwarzaniu dokumentów. Sztuczna inteligencja staje się kluczowym elementem tego procesu, a modernizacja IT odgrywa ogromną rolę w utrzymaniu konkurencyjności.
Wdrażamy technologie umożliwiające automatyczną analizę dokumentów i optymalizację procesów, co pozwala nam usprawniać działalność operacyjną, opartą na AI.
Anna Ostafin, Category Manager, BPS Lead HP Inc HP: Z perspektywy dużej korporacji widzę rosnące znaczenie nowoczesnych rozwiązań IT oraz ich wpływ na codzienną pracę i strategię organizacji.
Andrzej Sowiński, Country Managing Director, HP Inc Poland: Jako dostawca widzę, że wiele technologii jest implementowanych centralnie, a lokalne oddziały, w tym Polska, nie mają wpływu na wybór narzędzi, z których korzystają. Natomiast z perspektywy pracodawcy ostrzegam zmieniające się potrzeby technologiczne pracowników i stanowiska pracy.
Widzę wyraźną zmianę w sposobie myślenia liderów IT oraz osób odpowiedzialnych za zakupy technologiczne w polskich firmach – zarówno tych dużych, jak i mniejszych.
Jeszcze kilka lat temu rozmawialiśmy głównie o wymianie technologii na nowszą i szybszą. Dziś dyskusja dotyczy strategicznych inwestycji w infrastrukturę IT, które mają zabezpieczać organizację, optymalizować procesy i usprawniać funkcjonowanie całej firmy. IT jest coraz bliżej core business firmy.

Sztuczna inteligencja przestaje być abstrakcyjnym pojęciem i staje się narzędziem realnie wpływającym na biznes – nie tylko dla prezesa, handlowca czy serwisanta, ale dla całej organizacji.
Firmy nie zastanawiają się już, czy wdrażać AI, tylko jak zrobić to jak najszybciej, by nie zostać w tyle za konkurencją.
Jesteśmy w momencie, w którym transformacja cyfrowa nie jest już opcją, lecz koniecznością. Inwestycje w IT nie są więc tylko kosztami, lecz dźwignią rozwoju biznesu.
Aleksander Gawroński, Head of IT Infrastructure, mBank S.A.: Jeśli spojrzeć na trendy modernizacji infrastruktury w sektorze finansowym, to widzimy, że AI nie zmienia ich tak dramatycznie, jak mogłoby się wydawać – przynajmniej na razie.
Być może postawię lekką kontrę do wcześniejszych wypowiedzi – według mnie, jeśli firma ma dobrze uporządkowane procesy i governance, to nawet przy rosnącej liczbie zadań i rosnących zagrożeniach, można tym skutecznie zarządzać. Kluczowe jest pilnowanie procesów i odpowiednie ich dostosowanie do nowych wyzwań.
Z mojej perspektywy pojawia się jeszcze kwestia nowych serwerów zoptymalizowanych pod AI. Mają one inne wymagania dotyczące energii i infrastruktury.
Trzeba też podkreślić, że inwestycje w AI nie należą do tanich. Zarówno nasza firma, jak i wiele innych, obecnie eksperymentujemy – wdrażamy projekty pilotażowe, uczymy się, testujemy. Nie mamy jeszcze w pełni rozwiniętej analizy kosztów w odniesieniu do zwrotu z inwestycji, ale traktujemy to jako proces nauki i eksploracji.
Z perspektywy kosztowej stoimy przed pytaniem: wdrażać AI w chmurze czy w naszej infrastrukturze on-premise. Ostatecznie, przy wysokich kosztach wdrożenia, uzysk z AI musi być naprawdę znaczący, by uzasadnić te inwestycje.
Marek Laskowski, CIO, Domański Zakrzewski Palinka: Przez wiele lat panowało przekonanie, że żadna technologia – a szczególnie AI – nie wpłynie na funkcjonowanie sektora usług prawniczych.
Tymczasem obecnie obserwujemy radykalną zmianę – kompletną zmianę paradygmatu biznesowego. Widzimy coraz większą automatyzację, a nawet redefinicję charakteru usług prawniczych – zarówno w zakresie doradztwa prawnego, jak i w kwestiach legislacyjnych oraz sądowych.

Dziś standardem jest praca zdalna, z wykorzystaniem narzędzi cyfrowych. Zmienił się nie tylko sposób świadczenia usług, ale także rola prawnika. AI zaczyna odgrywać coraz większą rolę, choć nie uważam, że prawnicy zostaną całkowicie zastąpieni – raczej ich zawód ewoluuje w nowym kierunku.
Drugim kluczowym zagadnieniem jest bezpieczeństwo. Kancelarie prawne są niezwykle atrakcyjnym celem dla cyberprzestępców, ponieważ przechowują ogromne ilości wrażliwych danych – często dotyczących wielu różnych podmiotów.
To, co wyróżnia sektor prawniczy, to fakt, że opiera się on na zaufaniu – zarówno publicznym, jak i biznesowym. Wizerunek kancelarii i jej reputacja są niezwykle istotne.
Tymczasem kancelarie prawne mają często mniejsze nakłady na bezpieczeństwo niż korporacje, które obsługują. Dlatego security jest pilnym zagadnieniem w naszej branży.
Paweł Klimiuk, Head of Artificial Inteligence, PKO Bank Polski: Na temat modernizacji infrastruktury IT patrzę okiem „modelarza” – obecnie zajmuję się dużym projektem budowy modeli językowych oraz infrastruktury ich serwowania. Zajmuję się budowaniem i trenowaniem modeli predykcyjnych, a to wymaga ciągłej adaptacji infrastruktury.
Na przestrzeni lat obserwuję, jak zmieniają się wymagania wobec mocy obliczeniowej. Początkowo modele były stosunkowo małe i wystarczały mocniejsze maszyny lokalne lub maszyny wirtualne. Z biegiem czasu zapotrzebowanie na przetwarzanie danych rosło, a efektywne trenowanie modeli wymagało już rozproszonych środowisk obliczeniowych. Obecnie wchodzimy w kolejny etap – wykorzystanie procesorów graficznych (GPU) o wysokiej mocy obliczeniowej staje się standardem, co wpływa na sposób budowy infrastruktury.

Pojawia się jednak kilka istotnych wyzwań. Po pierwsze, jak zabezpieczyć dane i zapytania użytkowników kierowane do modeli AI? Po drugie, jak zbudować infrastrukturę, która nie pochłonie milionów dolarów, ale jednocześnie zapewni odpowiednią wydajność?
Dodatkowym problemem jest ograniczona dostępność sprzętu. Czas oczekiwania na zakup serwerów z odpowiednimi układami GPU wynosi ponad rok. Dlatego coraz częściej firmy decydują się na rozwiązania chmurowe.
Dla mnie te wyzwania nie są nowością – w świecie modeli predykcyjnych cały czas następują zmiany. Kiedyś mówiło się o business intelligence, potem o data mining, następnie o data science, a dziś dominuje pojęcie AI. W praktyce oznacza to jednak ten sam proces analizy danych i modelowania, który stale ewoluuje.
Mateusz Kierepka Chief Technology Officer, Hemolens Diagnostics: Tworzymy chmurowe rozwiązania klasy software as a medical device. Nasze technologie pozwalają lekarzom analizować ogromne ilości danych i automatycznie wykrywać status chorobowy pacjentów – szczególnie pracy serca.
W kontekście modernizacji infrastruktury IT i dostępu do sprzętu, mieliśmy trochę szczęścia – udało nam się zakupić wydajne karty graficzne od NVIDII jeszcze przed pierwszym gwałtownym wzrostem popytu. Dzięki temu nasza infrastruktura do dziś działa stabilnie. Jednak samo posiadanie sprzętu to jedno – wytrenowane na nim modele okazały się niewystarczające.
Zwiększyliśmy więc zbiór danych treningowych do setek terabajtów, a każda pojedyncza analiza obejmuje przetwarzanie na poziomie setek milionów wartości. W praktyce oznaczało to konieczność przeniesienia obliczeń do chmury.
Ostatecznie udało nam się znaleźć skuteczne rozwiązanie – wykorzystaliśmy Heliosa w Cyfronecie, co pozwoliło nam skorzystać z większej przestrzeni obliczeniowej i szybciej przeprowadzić testy. Okazało się, że zwiększenie zakresu przestrzeni, w której uczą się modele AI, podniosło ich czułość i specyficzność o kilkadziesiąt procent. To pozwoliło znacząco wyprzedzić konkurencję, ale postawiło przed nami nowe wyzwania.
Modele o wyższej precyzji działają dłużej i wymagają znacznie większej mocy obliczeniowej. W związku z tym musimy je optymalizować i kompresować. Kolejnym wyzwaniem było przejście naszej infrastruktury na architekturę ARM. Obecnie 80% zespołu korzysta już z komputerów ARM-owych, co było wymuszone m.in. przez wymagania AI.
Nasze działania R&D nie skupiają się już wyłącznie na AI. Wprowadziliśmy zaawansowane mechanizmy testowania bezpieczeństwa, w których modele AI analizują systemy zabezpieczeń, automatyzują audyty kodu i wspierają nie tylko dział IT, ale również księgowość oraz zarządzanie projektami. Jednak to dopiero początek.
Myślimy już o kolejnej technologicznej rewolucji – komputerach kwantowych. AI jest dla nas codziennością, nad którą pracujemy od lat, natomiast przejście na obliczenia kwantowe może być kolejnym przełomem.
Czy obecne modele zarządzania infrastrukturą IT pozostają adekwatne?
Aleksander Gawroński: Rozmawiamy głównie o rozwiązaniach AI, ale z perspektywy IT, to wszystko sprowadza się do dostarczania computing power.
AI nie jest nowym zjawiskiem – to ciągła ewolucja technologii, a nie rewolucja, która pojawiła się nagle. Kluczowe jest to, że rośnie skala – mówimy o obliczeniach na poziomie 10x, 100x większym niż kiedyś.
Z perspektywy mojej organizacji mamy już dobrze opracowany model zarządzania projektami AI. Jeśli ktoś przychodzi z projektem AI, mamy dla niego gotowy governance: albo może testować rozwiązanie w chmurze, albo skorzystać z naszej lokalnej infrastruktury. Mamy przygotowane środowiska wirtualizacyjne z procesorami GPU, by umożliwić szybkie testy. Dla bardziej wymagających projektów mamy dedykowane serwery AI.
W tej dyskusji ciekawi mnie różnorodność perspektyw. Jesteśmy z różnych branż, ale wyzwania są podobne. Może nie znam innych sektorów tak dobrze, ale z punktu widzenia finansów AI jest po prostu kolejnym megatrendem – podobnym do chmury publicznej. To coś, co adaptujemy i wdrażamy.
Nie jest to jednak rewolucja, która wywraca wszystko do góry nogami. Z mojej perspektywy to dodatkowe 10% pracy – więcej mocy obliczeniowej, więcej danych, ale nie zmienia to fundamentalnie naszego podejścia.
Patrząc na to całościowo – mimo że mówimy o AI, generatywnej sztucznej inteligencji czy uczeniu maszynowym, dla IT to nadal oznacza dostarczanie mocy obliczeniowej w coraz większej skali. I to właśnie wyzwanie, na które musimy być gotowi.
Bartłomiej Pławczyk: Reprezentuję branżę, która bardzo długo nie była utożsamiana z technologią. W pewnym momencie podjęto strategiczną decyzję: nie jesteśmy już „McDonald’s Head Office”, ale centrum serwisowym dla franczyzobiorców.
Obecnie mamy w Polsce 109 franczyzobiorców i każdy z nich ma inne potrzeby. Naszym zadaniem jest wspieranie ich w podejmowaniu decyzji – ale oni nie chcą czekać tygodniami na analizę danych, bo konkurencja nie śpi.

Jak zapewnić im dostęp do precyzyjnych i aktualnych informacji, kiedy zarządzamy miliardami danych historycznych? Jak sprostać potrzebom tysięcy restauracji w przyszłości, nie zwiększając drastycznie kosztów operacyjnych?
My nie możemy po prostu zwiększać liczby pracowników w call center, którzy obsługują zgłoszenia restauracji. Nie możemy stworzyć zespołu 200 osób ze słuchawkami, bo to się nie skaluje.
Z tego powodu narzędzia automatyzacji, chatboty i AI są dla nas niezbędne. Ale co ważne – nie chcemy budować własnych modeli AI ani stać się big techem. Jesteśmy organizacją, która chce korzystać z gotowych rozwiązań i uczyć się na błędach.
Nie mamy problemu z tym, że część projektów się nie uda. W długiej perspektywie 10-15 lat te koszty się rozmyją, a doświadczenie, które zdobędziemy, będzie kluczowe dla przyszłości firmy.
Andrzej Sowiński: Dostrzegam kolejny istotny problem – tak zwany AI-driven call center i to, jak AI zmienia sposób obsługi klientów.
Nie zgadzam się z tezą, że wszystko sprowadza się tylko do mocy obliczeniowej. W rzeczywistości zmienia się sposób, w jaki technologia jest wykorzystywana. Wrócę tutaj do przykładu procentowego, który poruszyłem wcześniej.
Mamy firmę, która świadczy dla nas zewnętrzną usługę call center. Kiedy klient ma problem techniczny ze sprzętem, dzwoni do nich, a agent go obsługuje. Dzięki AI ta obsługa wygląda teraz zupełnie inaczej.
Każdy agent ma na biurku system wspierany przez AI, który analizuje rozmowę w czasie rzeczywistym. W momencie, gdy klient zaczyna zgłaszać problem, AI błyskawicznie przeszukuje bazę danych firmy i wyświetla agentowi podpowiedź: co to za problem, jak go rozwiązać i jakie kroki należy podjąć.
Efekt? Drastyczne przyspieszenie obsługi i niesamowita poprawa satysfakcji klientów.
Teraz pojawia się jednak kluczowe pytanie: czy ten agent jest jeszcze potrzebny? Jeżeli AI może obsłużyć cały proces w pełni automatycznie, to czy człowiek w roli pośrednika nie stanie się zbędny? Może to moment, w którym klient zacznie rozmawiać bezpośrednio z maszyną? Zostawiam to pytanie otwarte.
Paweł Klimiuk: Właśnie budujemy rozwiązania AI dla call center.
Dotychczas nasze boty obsłużyły już ponad 14 milionów rozmów. Posiadamy 17 różnych botów, które funkcjonują w ekosystemie PKO BP, zarówno w aplikacji mobilnej, jak i w call center.
Według mnie człowiek nie zostanie całkowicie zastąpiony. Obecna technologia pozwala nam na automatyzację około 30% interakcji. To dużo, ale wciąż pozostaje przestrzeń dla konsultantów, zwłaszcza w bardziej skomplikowanych przypadkach.
Analizujemy także wykorzystanie generatywnych modeli AI do jeszcze bardziej zaawansowanych interakcji, ale wiąże się to z wyzwaniami technologicznymi. Kluczowe jest tempo odpowiedzi – w przypadku rozmowy telefonicznej musi być ono natychmiastowe.
Mateusz Kierepka: Musimy być gotowi na jeszcze inny, już wchodzący poziom automatyzacji. Wyobraź sobie, że masz w telefonie asystenta – multimodalnego agenta, który załatwia sprawy za ciebie – mówisz „Zarezerwuj mi hotel” i nie interesuje cię, jak to się stanie. Chcesz tylko otrzymać gotową informację. Jeśli asystenci multimodalni rozpoznają nawzajem, że są maszynami, przejdą na zupełnie inny język, który pozwoli załatwić sprawę w mgnieniu oka. A dla użytkownika liczy się czas.
Dla osób na wysokich stanowiskach to kluczowe – wszystko powinno być załatwione natychmiast, bez konieczności wykonywania telefonów i tracenia czasu. Otrzymujesz tylko krótką wiadomość: „Załatwiono. Oto szczegóły.”
Anna Ostafin: Myślę, że najlepszym podejściem jest model hybrydowy: bot może przygotować kilka opcji i propozycji, ale ostateczna decyzja powinna należeć do człowieka.
Czy CIO i biznes będą musieli częściej rozstrzygać kwestie infrastruktury i kosztów?
Paweł Klimiuk: Przyjęliśmy hybrydowe podejście – część rzeczy trenujemy lokalnie, część w chmurze, ponieważ w tej chwili moc obliczeniową najłatwiej i najszybciej można pozyskać w chmurze. Ale problem pojawia się, kiedy trzeba skalować takie rozwiązanie.
Jeśli cała organizacja zacznie z tego korzystać, nagle może się okazać, że trzeba znacząco zwiększyć infrastrukturę. I to już nie są decyzje, które można podejmować spontanicznie.
Optymalizacja mocy obliczeniowej ma zasadnicze znaczenie. Czy efektywniejsze jest trenowanie modeli na jednej karcie graficznej, czy może na klastrze kart? Różne modele mają różne wymagania.
Druga kwestia – zarządzanie danymi. Wyszukiwarki semantyczne działają świetnie, ale bazują na dokumentach nieustrukturyzowanych. A w banku mamy ich tysiące – od intranetów, przez repozytoria wiedzy, po regulacje prawne.
Musimy to połączyć w jeden centralny system, ale też odpowiednio kontrolować dostęp. Dodatkowo dochodzi jeszcze kwestia aktualizacji danych.
Jeśli chcemy budować modele generatywne, to pytanie brzmi: na jakich danych możemy to robić? W jakim stopniu możemy wykorzystywać realne dane klientów? Czy możemy używać np. tekstów z e-maili do trenowania klasyfikatora reklamacji?
I tu pojawia się jeszcze większy problem – posiadanie praw do treści. My, jako duży bank, mamy dostęp do ogromnej ilości tekstów, ale to nie oznacza, że możemy je dowolnie wykorzystać.
Dlatego 70-90% pracy nad AI to nie modelowanie, tylko inżynieria danych. Aktualizacja, porządkowanie, dbanie o jakość – to jest najtrudniejsza część.
Samo trenowanie modelu to jakieś 10% całego procesu.
Mateusz Kierepka: W Europie tak. A w USA działa to zupełnie inaczej. W Polsce jak próbujesz zdobyć dane szpitalne, to jest traktowane niemal jak kradzież organów. Można się spodziewać albo wyrzucenia za drzwi, albo rozmowy z działem prawnym. W USA kupiliśmy bez problemu 60 terabajtów danych medycznych.
Ale tu ciekawostka – dane kupuje się na terabajty.

Przy zamówieniu 60 TB dostaliśmy paczkę w chmurze Google i… nie mogliśmy ich przetworzyć. Po trzech tygodniach interwencji Google znalazł rozwiązanie. Ale to pokazuje, jak proste rzeczy, jak pobranie danych, mogą nagle stać się ogromnym problemem.
Do tego dochodzi temat planowania infrastruktury. O ile na przykład w sektorze produkcji AI można zaplanować na 2-3 lata do przodu, to w sektorze zdrowia jeśli uda mi się zaplanować na kilka tygodni, to już jestem zadowolony. Mieliśmy przypadek, gdzie powiedziano nam, że dane zajmą 20 TB. A potem okazało się, że to były dane skompresowane – po rozpakowaniu miały 60 TB!
Efekt? Projekt wymagał zasadniczej zmiany wymagań.
Jerzy Zieliński: My mierzymy się z zupełnie innymi wyzwaniami. Nie mamy takich projektów, o jakich tutaj opowiadacie. Biznes mniej jest zainteresowany, żeby w tym kierunku podążać.
Branża dóbr luksusowych, do której należymy, obecnie przeżywa spowolnienie gospodarcze. Popyt na sprzęt AGD, motoryzację i inne segmenty jest znacząco zmniejszony, więc nasze priorytety są inne.

Nie inwestujemy w rozwiązania AI, dbamy natomiast o utrzymanie zerowego długu technologicznego. Dla mnie nie ma możliwości, żeby sprzęt komputerowy w naszej grupie kapitałowej miał więcej niż 4 lata.
Zarządzamy tym operacyjnie, mamy wszystko rozpisane na plany inwestycyjne i harmonogramy wymian sprzętu – od komputerów użytkowników końcowych po infrastrukturę Data Center.
Optymalizujemy procesy zamiast inwestować w rewolucyjne technologie. Konsolidujemy narzędzia i dbamy o cyberbezpieczeństwo. Dzięki temu możemy działać efektywnie i być gotowi na ewentualne wdrożenie nowych technologii, gdy pojawi się taka potrzeba.
Jesteśmy gotowi na wdrożenie AI, ale dopóki biznes tego nie wymaga, nie widzimy potrzeby ponoszenia dodatkowych kosztów. U nas nie ma pytania „ile będziemy wydawać na sprzęt” – mamy to precyzyjnie wyliczone. Nasza infrastruktura jest skalowana w przewidywalnych cyklach i staramy się ograniczać w maksymalny sposób dług technologiczny.
Z racji uwarunkowań branżowych systemy IT oparte są o rozwiązania on-premise korzystamy również z wielu rozwiązań hybrydowych. Chmura jest dla nas narzędziem pomocniczym, a infrastruktura pozostaje w naszym zarządzaniu, bo w branży produkcyjnej opóźnienia liczone w milisekundach mogą mieć krytyczne znaczenie, np. w naszym zautomatyzowanym magazynie wysokiego składowania.
Chciałbym żebyśmy wrócili jeszcze do tematu, który poruszył Piotr na początku. Może podzielisz się z nami, jakie opcje modernizacji obecnie rozważasz?
Piotr Burzyński: Nasza branża jest bardzo regulowana, dodatkowo w każdym kraju obowiązują inne przepisy.
Decyzje o infrastrukturze podejmujemy powoli, bo regulacje wpływają na każdy nowy kontrakt. Dla przykładu – jeśli mamy nową umowę z bankiem w danym kraju, to pierwsze 3-5 lat zajmuje nam dostosowanie się do jego wymogów. A jeśli kontrakt ma trwać 10 lat, to musimy z góry ustalić, jak będziemy go realizować.
Za każdym razem analizujemy, czy opłaca się nam wejść na nowy rynek.
Z jednej strony – budowa własnego modelu AI może uprościć i przyspieszyć analizę danych oraz redukować koszty. Z drugiej strony – modele AI są nadal bardzo drogie, więc oszczędności nie zawsze są oczywiste.

W większości przypadków musimy sobie odpowiedzieć na pytanie: czy ma sens budowanie własnego modelu? Czy może lepiej oprzeć się na gotowych rozwiązaniach? Czy model będzie tańszy w dłuższym okresie niż tradycyjne rozwiązania?
Ciągle porównujemy koszt zespołu ludzi do kosztu AI. Dla przykładu – jeśli działamy tylko w Szwajcarii, to AI nie ma większego sensu, bo wszystko i tak musi być manualnie sprawdzane. Ale jeśli rozszerzamy działalność na więcej krajów (np. Niemcy, Francja, Polska), to nagle budowa własnego modelu AI staje się uzasadniona.
Chodzi o to, żeby minimalizować liczbę operatorów, którzy przetwarzają dane. Możemy mieć mały zespół w Europie, który lepiej rozumie lokalne niuanse kulturowe i jest w stanie poprawnie interpretować dane. Natomiast zespół w Azji zajmuje się masowym przetwarzaniem dokumentów w wielu językach – np. 13-15 językach jednocześnie.
Ci ludzie nie analizują dogłębnie treści, ale wyłapują słowa kluczowe i format dokumentów. Mogą to być np. dokumenty bankowe, medyczne, prawne – generalnie duże zbiory danych, które wymagają jednolitego formatowania.
To trochę zmienia zasady gry, bo choć operacje pozostają manualne, to automatyzacja stopniowo zmniejsza potrzebę ludzkiej pracy.
Czyli z jednej strony powrót do lokalnych zespołów, a z drugiej – dalsza automatyzacja?
Piotr Burzyński: Widać powolny powrót do bardziej lokalnej obsługi, ale nie da się całkowicie zrezygnować z operacji w Azji, bo wciąż są tańsze i bardziej efektywne w dużej skali.
Są jednak kraje, gdzie przeniesienie operacji na miejsce jest konieczne. Na przykład w USA nie ma tak ścisłych regulacji jak w Europie, co daje więcej swobody.
Przy każdym nowym projekcie podejmujemy więc decyzję o ścieżce działania, co rzutuje też i na kwestie sprzętu. Każde wdrożenie wymusza nową ocenę sytuacji – czy idziemy w automatyzację, czy pozostajemy przy tradycyjnych metodach.
Chciałbym na koniec zapytać o bodźce modernizacyjne typu, np. „musimy być AI-ready” albo „aktualizujemy system do Windows 11”?
Jerzy Zieliński: W całej organizacji praktycznie wszystkie stacje robocze są zaktualizowane do wersji systemu Windows 11, większym wyzwaniem jest dla nas Office. Oczywiście są miejsca w infrastrukturze OT, gdzie świadomie są urządzenia wykorzystujące starsze oprogramowanie, jednak są one odpowiednio zabezpieczone i odseparowane od sieci IT. Dla firm produkcyjnych to standard branżowy, skuteczne rozdzielenie infrastruktury IT od OT.
Na szczęście aspekt wykorzystywanego oprogramowania nie wpływa na cykl życia sprzętu, bo – jak mówiłem wcześniej – mamy inny model zarządzania infrastrukturą. Ale w kontekście dzisiejszej dyskusji jest zauważalny bodziec na częstszą wymianę sprzętu i inwestycje, szczególnie przez rozwój AI i tego, co dzieje się na stacjach roboczych.
Marek Laskowski: Warto nie pomijać tak zwanego efektu „wow”. Jeśli widzę w sprzęcie coś, co wywołuje efekt „wow”, nawet jeśli nie jest to funkcjonalnie niezbędne, ale daje mi poczucie nowości i ulepszenia – to modernizacja sprzętu zaczyna mieć sens.
W kontekście AI ten efekt jest szczególnie silny.
Jerzy Zieliński: Tak, ale pamiętajmy, że narzędzia AI i cyberbezpieczeństwa bardzo mocno obciążają sprzęt. Robiliśmy testy i ilość narzędzi security, które mamy na stacjach roboczych, powodowała drastyczne skrócenie czasu pracy na baterii – zamiast 5 godzin, komputer działał tylko 2 godziny.
To prowadzi do dwóch bodźców modernizacyjnych: modernizacja sprzętu – bo nowe aplikacje wymagają większej mocy oraz konsolidacja rozwiązań – zmniejszanie liczby narzędzi, które działają jednocześnie.
Anna Ostafin: Nową miarą wydajności komputerów staje się liczba TOPS (tera operacji na sekundę), czyli moc obliczeniowa w zadaniach związanych z AI.

Posiadanie procesora z wbudowanym NPU (neural processing unit), który obsługuje lokalne modele AI, powoli staje się standardem.
Aleksander Gawroński: Przysłuchują się tej dyskusji, zaczynam myśleć, czy może trzeba będzie przyspieszyć cykl wymiany sprzętu.

Na razie działam w klasycznym czteroletnim cyklu wymiany – kupujemy od razu sprzęt z górnej półki, żeby nie dopadł nas dług technologiczny. Dzięki temu nie mamy sytuacji, że nagle coś nie działa, bo sprzęt jest za stary.
Inaczej wygląda sytuacja deweloperów i osób pracujących na bardziej wymagającym sprzęcie, ale dla typowego pracownika bankowego czteroletni cykl wymiany na razie działa dobrze.
Co do AI i sprzętu z wyższą mocą obliczeniową, życie zweryfikuje, ale na razie nie widzę potrzeby skracania cyklu wymiany. Nie mamy sytuacji, gdzie końcówki przestają działać, bo nie radzą sobie z wymaganiami AI.
Paweł Klimiuk: Połowę zasobów pochłaniają same narzędzia internetowe i systemy zabezpieczeń. To oznacza potrzebę zarządzania także standardem RAM-u. U nas 16 GB to obecna standardowa konfiguracja, ale mam wrażenie, że to już za mało na dzisiejsze czasy.
Aleksander Gawroński: Mamy większość floty jeszcze na 16 GB RAM-u, ale wszystkie nowe modele są już z RAM 32 GB. Pilnujemy, żeby wszystkie natywne procesy – czyli aktualizacje, zabezpieczenia, skanowania – nie przekraczały 30% obciążenia.
Pozostałe 70% mocy sprzętu musi być dostępne dla użytkownika.
Bartłomiej Pławczyk: Najmocniejsze komputery zawsze są w finansach.
Sama restauracja także jest nasycona technologią. To nie jest już technologia klasy premium, tylko po prostu masa technologii, która automatyzuje każdy etap kompletowania zamówienia – od kiosków samoobsługowych, przez kuchnię, aż do wydania posiłku.
Żeby zostać franczyzobiorcą, trzeba więc mieć solidny kapitał – bo inwestycje w technologię są wysokie.
Sam kiosk może nie jest bardzo zasobożerny, ale w skali całej restauracji pobór mocy elektrycznej jest ogromny. Już zastanawiamy się, jak zarządzać energią, żeby obniżyć koszty.
A patrząc w przyszłość, chcemy stać się organizacją, w której klient w dowolnym kraju składa zamówienie głosowe we własnym języku, system to rozpoznaje i przetwarza.
Natomiast dzisiaj nasze prozaiczne potrzeby to obniżanie kosztów energii. Profil zużycia energii restauracji jest różny.
Już teraz myślimy, jak franczyzobiorca może planować dzień produkcji, biorąc pod uwagę nie tylko zużycie półproduktów czy planowanie zespołu, ale także optymalizację zużycia energii.
Taka inwestycja w technologię – nawet jeśli jest wysoka – zwróci się poprzez oszczędności. Bo na końcu wydajemy bułeczki, ale robimy to coraz bardziej inteligentnie.
Krótko podsumowując naszą debatę – próbowaliśmy uchwycić rytm zmian. Wnioski? Modernizacja zmienia się, ale nadal posługujemy się utartymi kategoriami i mechanizmami, które dobrze funkcjonują.
Bardzo serdecznie dziękuję.