CXO HUBSztuczna inteligencjaBranża ITCIOPolecane tematy

Jak zbudować Fabrykę AI podporządkowaną oczekiwaniom biznesu?

CXO HUB

Grono złożone z CXO z polskich firm oraz rynkowych ekspertów spotkało się 17 czerwca br. w restauracji Samo Centrum Wszechświata, aby dyskutować o kluczowych aspektach adaptacji i wdrażania sztucznej inteligencji w przedsiębiorstwach.

Jak zbudować Fabrykę AI podporządkowaną oczekiwaniom biznesu?
FOTO: Ida Podsiebierska

Tematem przewodnim wydarzenia zorganizowanego przez redakcję ITwiz i CXO HUB we współpracy z Averbit, firmą partnerską IBM i przy wsparciu ekspertów IBM, była „Fuzja w Fabryce AI”. Do tematu podeszliśmy przez pryzmat możliwości połączenia generatywnej sztucznej inteligencji z klasycznymi metodami uczenia maszynowego oraz symbolicznej sztucznej inteligencji.

Fuzja AI: łączenie doświadczeń i światów

W pierwszej części dyskusji skupiliśmy się na zasadności i wyzwaniach związanych z łączeniem generatywnej i klasycznej sztucznej inteligencji.

Jan Maria Kowalski, dyrektor Biura Rozwoju Sztucznej Inteligencji w Banku Pekao S.A., podkreślił, że dojrzałe organizacje potrzebują połączenia obu światów sztucznej inteligencji: „Wiele rozwiązań, które zbudowaliśmy w ubiegłych latach na bazie klasycznych algorytmów, co dziś niektórzy żartobliwie nazywają oldschool AI, teraz wzbogacamy modelami generatywnymi, żeby wykorzystać ich możliwości rozumienia szerszego kontekstu, przetwarzania dokumentów czy interpretacji danych” – mówił. Przykładem mogą być modele do analizy opinii klientów, które początkowo wymagały mnóstwa iteracji, eksperymentów i testowania, a dziś modele generatywne zdecydowanie lepiej rozumieją ten tekst i kontekst, trafnie oceniają zadowolenie klienta czy tematykę wypowiedzi.

Jak zbudować Fabrykę AI podporządkowaną oczekiwaniom biznesu?
Kamil Konikiewicz, Allegro

Z kolei Kamil Konikiewicz, Director Data&AI w Allegro, zaznaczył, że mimo rosnącej popularności modeli generatywnych, klasyczne metody uczenia maszynowego pozostają niezastąpione w wielu domenach: „Istnieje nadal duża domena problemów biznesowych, jak np. rekomendacje czy elastyczność cenowa, których rozwiązanie wymaga oparcia się na dużych wolumenach danych ustrukturyzowanych. Tam jeszcze długo klasyczne modele ML nie zostaną zastąpione rozwiązaniami generatywnymi” – dodał. Jego zdaniem kluczowe jest dobranie narzędzia odpowiedniego kalibru do problemu.

Jednocześnie, prof. Dariusz Czerwiński z Wydziału Matematyki i Informatyki Technicznej Politechniki Lubelskiej przedstawił konkretne przykłady projektów (m.in. optymalizacja produkcji w firmie Lubella, projekty medyczne związane z rzadkimi chorobami i medycyną cyfrową), w których zastosowano AI. Podkreślił, że w tych projektach kluczowe są procesy, a ich skala i złożoność naturalnie prowadzą do koncepcji „fabryki AI”, gdzie chodzi o uporządkowanie narzędzi i danych tak, aby stały się komercyjnym produktem. Zwrócił także uwagę na fakt, że firmy aktywnie poszukują narzędzi AI, szczególnie modeli generatywnych do zadań biurowych, ale jednocześnie wyrażają silną potrzebę utrzymania danych i rozwiązań w środowisku on-premise, aby zapewnić bezpieczeństwo i kontrolę nad wrażliwymi informacjami.

Fuzja w fabryce AI

Podczas dyskusji Tomasz Janiec, Data Platform Technical Sales Manager, IBM Poland, Baltics & Ukraine i Krzysztof Pietkiewicz, IBM Data&AI Sales, przedstawili koncepcję praktycznej Fabryki AI, nazywając ją zamkniętym, spójnym konceptem opartym na trzech filarach: ludziach, procesach i technologii.

Istotą takiego podejścia jest założenie, że AI powinna wzmacniać ludzi w pracy, a nie ich zastępować. Jak ujął to Krzysztof Pietkiewicz, „zatrudniamy AI do pracy dla nas, dla ludzi”. Ważne jest zatem łagodzenie obaw pracowników i budowanie kompetencji wewnętrznych poprzez testowanie i próbkowanie rozwiązań.

Jak zbudować Fabrykę AI podporządkowaną oczekiwaniom biznesu?
Tomasz Janiec, IBM

Ważna jest też świadomość, że wdrażanie AI wymaga uporządkowania – od pomysłu do produkcji, z walidacją na każdym etapie. Obecnie często panuje „wolna amerykanka” w testowaniu rozwiązań AI, ale stabilizacja takich procesów jest naturalnym kolejnym krokiem.

Podczas spotkania przedstawiciele IBM opisali całościową koncepcję, obejmujące wszystkie kluczowe warstwy, która spełnia definicję „fabryki AI”, m.in. ze względu na jej otwarty, neutralny technologicznie charakter w wielu z nich. Na przykład, w zakresie infrastruktury istnieje możliwość wykorzystania sprzętu różnych dostawców, choć IBM oferuje gotowe, predefiniowane pakiety. Zwrócono m.in. uwagę na rozwój kart GPU, takich jak IBM Spyre (75 W), które z racji swojej efektywności energetycznej obalają mit o konieczności zbudowania „małej elektrowni jądrowej” do uruchomienia wydajnego środowiska on-premise.

Nie zabrakło też wątku dotyczącego warstwy aplikacyjnej. W warstwie platformy danych i narzędzi, wartościowa okazuje się koncepcja Data Lakehouse. Pozwala bowiem na integrację danych ustrukturyzowanych i nieustrukturyzowanych, co jest kluczowym warunkiem całościowego, spójnego podejścia do portfela projektów AI i zapewnienia ich powodzenia.

Jak zauważył Tomasz Janiec, większość projektów nie udaje się ze względu na tą warstwę środkową, czyli data platform (rozwijane w Krakowie). W ramach podejścia proponowanego przez firmę IBM w warstwie danych współpracują ze sobą np. różne narzędzia IBM dla klasycznej AI (np. AutoAI) oraz generatywnej AI (modele językowe, Prompt Studio, Tuning Studio).

Jak zbudować Fabrykę AI podporządkowaną oczekiwaniom biznesu?
Krzysztof Pietkiewicz, IBM

W praktyce, niezbędne jest jednak wytworzenie w organizacji warstwy governance, do monitorowania, budowy zaufania do AI i weryfikacji jakości, zarówno ze względu na regulacje (AI Act) jak i wiarygodność firmy. W fabryce AI jednak działać powinny rozwiązania, które automatyzują zarządzanie ryzykiem i monitoring, adekwatnie do skali.

Podkreślono również modułowość i otwartość koncepcji, pozwalającą na integrację komponentów od różnych dostawców oraz hybrydowe podejście (chmura publiczna, czysty on-premise, model mieszany). To ostatnie ma podstawowe znaczenie dla firm z takich sektorów, jak energetyka, medycyna czy telekomunikacja, gdzie szereg rozwiązań bazuje na modelu on-premise.

Fabryka AI, odporność i cybersuwerenność

Jednym z najbardziej ożywionych punktów programu była dyskusja na temat tego, czy wdrożenie Fabryki AI zwiększa ekspozycję firm na vendor-lock i strategiczne uzależnienie od zewnętrznych dostawców. Andrzej Gładysz, wiceprezes zarządu Averbit, zauważył, że większość dużych partnerów, klientów, z którymi współpracuje firma stosuje dual policy, nie opiera swojej infrastruktury krytycznej do prowadzenia biznesu na rozwiązaniach tylko jednego dostawcy.

Jak zbudować Fabrykę AI podporządkowaną oczekiwaniom biznesu?
Jan Maria Kowalski, Pekao SA

Z kolei Jan Maria Kowalski podkreślił wartość budowania wewnętrznych kompetencji w dużych organizacjach: „Większe organizacje, zwłaszcza banki, dostrzegają dużą wartość w budowaniu wewnętrznych zespołów i kompetencji, które docelowo będą miały zdolność tworzenia rozwiązań AI, zamiast polegać wyłącznie na gotowych produktach od dostawców” – mówił. Zwrócił również uwagę na to, że procesy przetargowe są czasochłonne, niekiedy mogą trwać wiele miesięcy, podczas gdy technologia zmienia się bardzo szybko. Wskazał na strategię dywersyfikacji dostawców modeli generatywnych, poprzez stosowanie narzędzi typu „LLM Gateway”, pozwalających na łatwe przełączanie między różnymi chmurami.

Podczas dalszej dyskusji Kamil Konikiewicz wskazywał dodatkowo, że w przeciwieństwie do klasycznych projektów (np. CRM, systemów logistycznych), AI wymaga większej przestrzeni na eksperymentowanie. „Use case dla wdrożenia AI, który na papierze wygląda obiecująco, może okazać się fiaskiem z wielu powodów takich jak poprawność sformułowania problemu, jakość dostępnych danych, czy przewidywalność i jakość modelu, dlatego w przypadku technologii generatywnych warto zapewnić środowisko i kulturę wspierającą swobodne testowanie i elastyczność w działaniu” – podkreślał.

Podniesiono także kwestię ukrytych kosztów wdrażania AI, takich jak koszty energii elektrycznej, bezpieczeństwa danych (kto przyzna się do wycieku danych w chmurze?), oraz trudność oszacowania wydatków w chmurze. Profesor Dariusz Czerwiński na przykładzie uczelni pokazał, jak ważna jest dywersyfikacja infrastruktury i danych: „Mam dywersyfikację, z różnymi rozwiązaniami do obsługi danych mojej katedry naszego wydziału, innymi w repozytorium uczelnianym i wreszcie osobnym repozytorium państwowym” – zapewniał. Odwołał się przy tym do kwestii cybersuwerenności i wpływu globalnych wydarzeń na decyzje architektoniczne i wskazał na przypadek blackoutu w Hiszpanii jako przykładu uzależnienia od wygody. Blackout dotknął bowiem silnie m.in. te firmy, które przeniosły swoje data center do Hiszpanii, ze względu na znacząco niższą cenę energii. Kierowanie się wyłącznie ceną i nieuwzględnienie w analizie ryzyka stanu infrastruktury przesyłowej i jej przeciążenia będzie także w przyszłości narażać te firmy na kolejne niespodzianki.

Dodatkowo, Krzysztof Pietkiewicz wskazywał, że dziś w światle wydarzeń geopolitycznych (jak np. wojna na Ukrainie) strategia wyjścia z chmury staje się równie ważna jak strategia wejścia. Dotyczyć to powinno także strategii adaptacji przez firmę AI.

AI nie zdejmie odpowiedzialności z człowieka

Dyskusja dotknęła również roli człowieka w erze AI. Eksperci zgodnie podkreślali, że AI ma służyć jako narzędzie wsparcia, a nie zastępstwa. Krzysztof Pietkiewicz wyraził nadzieję, że AI „ma nam pomóc uwolnić trochę energii, przestrzeni”, zamiast „robić w jednej godzinie jeszcze więcej”.

W kontekście odpowiedzialności za błędy AI, Dariusz Czerwiński przytoczył przykład porażki systemu do przyznawania zapomóg społecznych w Danii, który przez trzy lata nie zatwierdził świadczeń przysługującym 3000 osób.  Pytanie o odpowiedzialność za błędy rozwiązań opartych na AI jest jeszcze istotniejsza np. w obszarze medycyny, dlatego nadal to człowiek musi podjąć ostateczną decyzję i ponosić odpowiedzialność prawną.

Jak zbudować Fabrykę AI podporządkowaną oczekiwaniom biznesu?
Prof. Dariusz Czerwiński, Politechnika Lubelska

Kamil Konikiewicz dodał, że koncepcja wyjaśnialnego AI, która miałaby stanowić rozwiązanie tego problemu, jest trudna do osiągnięcia w przypadku modeli z miliardami parametrów, gdzie także każde wyjaśnienie będzie tylko statystycznym przybliżeniem.

Eksperci zgodzili się, że Fabryka AI powinna być dostosowana do specyfiki firmy, a nie kupowana „z pudełka”. Wyzwaniem jest dojrzałość organizacji, ich gotowość do adopcji i zrozumienia, które narzędzia do czego służą. Istotnym ograniczeniem jest również jakość i struktura danych w przedsiębiorstwach, które często są rozproszone i nieprzygotowane do wykorzystania przez modele AI. Profesor Czerwiński, w humorystyczny sposób, porównał dzisiejszą złożoność wdrażania AI do roli „informatyka zakładowego”, który musiał zajmować się wszystkim.

Jak zbudować Fabrykę AI podporządkowaną oczekiwaniom biznesu?

Na koniec, dyskutowano o rosnącym znaczeniu krytycznego myślenia w obliczu coraz szerszej dostępności AI. Nowe pokolenia, traktujące AI jako naturalne źródło wiedzy, potrzebują rozwiniętych umiejętności weryfikacji i rozumienia kontekstu, by nie ulegać halucynacjom modeli. Zauważono również, że spowolnienie na rynku pracy IT, zwłaszcza wśród juniorów, może być efektem oczekiwania na zwiększoną produktywność dzięki AI. Profesor Czerwiński podkreślił, że nadchodzące pokolenia (Alfa) będą traktować AI jako naturalne źródło wiedzy, co stawia wyzwanie w kontekście rozwijania umiejętności krytycznego myślenia i weryfikacji informacji dostarczanych przez modele, aby unikać halucynacji – nie tylko AI, ale i człowieka.

Jak zbudować Fabrykę AI podporządkowaną oczekiwaniom biznesu?
Od lewej: Andrzej Gładysz, Averbit, Krzysztof Pietkiewicz, IBM, Dariusz Czerwiński, Politechnika Lubelska, Jan Maria Kowalski, Pekao SA, Szymon Augustyniak, ITwiz/CXO HUB

Spotkanie zakończyło się wnioskiem, że choć AI jest „game changerem”, to droga do pełnego wykorzystania jej potencjału wymaga budowania kompetencji, przestrzeni na eksperymentowanie i strategicznego podejścia do zarządzania zmianą. „Trzeba sobie zadawać stale pytanie, jaka jest alternatywa, jeżeli się zdecyduję na wybrany system AI, na daną platformę. Jak łatwo lub trudno, jakim kosztem będę mógł dokonać zmiany. A przede wszystkim – muszę umieć zawczasu dostrzec, że mój dostawca zyskał zbyt mocną pozycję i trzeba zareagować budując i ewentualnie wdrażając plan B” – mówił Andrzej Gładysz. Pomaga w tym podejście „fabryki AI”, ukierunkowane na procesy, uwzględnienie całości kontekstu, wykorzystywanie standardów i dobór w oparcie o nie, i o potrzeby, rozwiązań z określonej klasy, wydatnie obniża poziom ryzyka związany z implementacją AI dziś i w przyszłości.

Tagi

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *