Debata ITwizCDOAnalitykaPolecane tematy
W jaki sposób algorytmy AI wykorzystują liderzy cyfryzacji w Polsce
DEBATA ITWIZ
Z przedstawicielami firm Allegro, emagine, PKO BP, PZU, Ringier Axel Springer Polska oraz TVN Warner Bros.Discovery rozmawiamy o zastosowaniach algorytmów AI i wspartych nimi procesach; inspiracjach do kolejnych projektów; niezbędnych kompetencjach i budowie zespołów AI; biznesowych integratorach rozwiązań AI; dystrybucji kompetencji po stronie biznesu; idei AI marketplace; etycznej i skutecznej sztucznej inteligencji oraz gorących trendach związanych z wykorzystaniem algorytmów AI.
PROCESY WSPARTE ALGORYTMAMI AI
Na początku chcielibyśmy zapytać jak wykorzystać sztuczną inteligencję na poziomie strategicznym? Jak włączyć, zaadaptować AI do procesów biznesowych? Jakie znajdują Państwo zastosowania algorytmów?
Maciej Rudziński, kierownik Zespołu ds. Dostarczania Rozwiązań IT, PZU: W naszej firmie sztuczna inteligencja wspiera głównie procesy sprzedażowe i obsługowe, np. w czatach wykorzystujemy analizę tekstu i obrazu.
Radosław Kita, Head of Data Science, Ringier Axel Springer Polska: Używamy sztucznej inteligencji w kilku obszarach, np. do automatycznej klasyfikacji tekstu. System Equal Voice pozwala nam oceniać, czy w równym stopniu piszemy o kobietach i mężczyznach, a Command Stack Proximity ocenia czy dany komentarz nie jest „toksyczny”.
Kolejny obszar, to systemy rekomendacji treści i reklam. Zaczynamy również przygodę z czatem GPT, który np. wspomaga dziennikarzy w pisaniu artykułów. Przy jego pomocy tworzymy też quizy. To zdejmuje dziś z nich 75% dotychczasowych obciążeń.
Paulina Sawa-Oponowicz, Local Business Director, emagine: W emagine konsultujemy projekty informatyczne w obszarze AI. Wewnętrznie zaś wykorzystujemy ChatGPT m.in. do pozyskiwania, rozszerzania treści, a także informacji na temat rynku.
Marcin Kosiński, Data Scientist, emagine: Staramy się wspierać konsultantów w procesie poszukiwania nowych ofert pracy. Wyzwaniem jest samo stworzenie silnika, który przetwarza wszystkie, możliwe typy nadsyłanych życiorysów na jeden model danych. Dzięki temu budujemy silniki rekomendacji ekspertów do projektów.
Dawid Kin, Head of AI, PKO BP: Używamy sztucznej inteligencji w obsłudze klienta, procesach wewnętrznych, sprzedaży i ryzyku. Zastosowań jest naprawdę dużo – szczególnie w obszarze przetwarzania języka naturalnego. Nasze boty przeprowadzają ok. 1 mln rozmów miesięcznie. Mamy wiele klasyfikatorów tekstu i innych rozwiązań, np. z obszaru wizji komputerowej, ale ciągle poszukujemy nowych. Aktualnie testujemy model do nienadzorowanej analizy tekstów. Chcemy dać pracownikom uniwersalne narzędzie, które pomoże im analizować duże zbiory tekstowe, np. opinie o oddziałach.
Rynek sztucznej inteligencji w ostatnim czasie mocno się zmienił. Kiedyś zaczynaliśmy trenowanie nowych rozwiązań AI od podstaw. Dziś mamy gotowe narzędzia, „pudełkowe”, które jedynie dotrenowujemy, aby uzyskać gotowe rozwiązanie. Można nawet zamówić dedykowaną usługę tego typu – Radosław Kita, Head of Data Science, Ringier Axel Springer Polska.
Marcin Choiński, Data & AI Department Director, TVN Warner Bros.Discovery: Od lat stosujemy AI do wspierania wielu różnych działań biznesowych, takich jak zarządzanie retencją/churnem subskrybentów, angażowanie ich poprzez rekomendacje video oraz artykułów, inteligentne dopasowywanie reklam, czy planowanie ramówek. Są to zarówno klasyczne modele segmentacji klientów, użytkowników, produktów, algorytmy predykcyjne, jak również modele oparte o przetwarzanie języka naturalnego, silniki wyszukiwania, rekomendacji czy profilowania.
W ostatnim czasie z oczywistych względów bardzo intensywnie pracujemy nad wykorzystaniem wszelkiej maści modeli klasy Generative AI. Wdrożyliśmy i na bieżąco rozwijamy własną platformę o nazwie Promptly. Konsumeryzuje ona i daje self-service dla zastosowań tych modeli przez użytkowników biznesowych.
Co ciekawe, pomimo wielu bardzo zaawansowanych Use Case’ów, najszybsze i największe efekty biznesowe dało nam zastosowanie modeli klasy speach2text, które obecnie osiągnęły odpowiednią jakość dla języka polskiego. Pozwala ona przyśpieszyć i zautomatyzować znaczną ilość pracy w naszym, medialnym biznesie.
Dążymy do szerokiej adaptacji najnowszych osiągnięć w zakresie AI w organizacji, jednocześnie poświęcając dużo uwagi aspektom prawnym i etycznym. Staramy się budować nową kulturę pracy, w której korzystanie z AI jest naturalnym aspektem, tam gdzie może to wnosić wartość. Działamy tak, aby wszyscy potencjalni użytkownicy traktowali sztuczną inteligencję jako „rower dla umysłu”, czy „zbroję IronMan’a”, która poszerza ich możliwości, a nie konkurenta, który zlikwiduje ich miejsce pracy.
Agnieszka Myszkiewicz-Kurkiewicz, dyrektor ds. dostarczania rozwiązań IT, PZU: Bardzo mocno postawiliśmy na obsługę i efektywność procesu sprzedażowego i posprzedażowego, czyli obsługi ubezpieczenia. Planujemy zaś mocniej wykorzystać AI w poprawie doświadczeń klientów i personalizacji oferty dla nich.
Kamil Konikiewicz, Head of Data Science, Allegro: Można powiedzieć, że Allegro wykorzystuje AI we wszystkich kluczowych obszarach biznesu. Użytkownicy platformy wchodzą w interakcje z modelami ML chociażby w kontekście rekomendacji, wyszukiwania czy przeglądania listy ofert. Poza tymi klasycznymi zastosowaniami, AI określa m.in. spodziewany czas dostawy zamówienia, umożliwia wyszukiwanie produktów na podstawie zdjęć (tzw. Visual Search), czy wspiera szacowanie dostępnego limitu w Allegro Pay.
Jest też cała gama zastosowań skierowanych na usprawnienie procesów, od obsługowych – automatyzacja korespondencji z klientami; przez bezpieczeństwo – wykrywanie prób nadużyć; do logistyki – optymalizacja lokalizacji dla nowych maszyn paczkomatowych.
W emagine konsultujemy projekty informatyczne w obszarze AI. Wewnętrznie zaś wykorzystujemy ChatGPT m.in. do pozyskiwania, rozszerzania treści, a także informacji na temat rynku – Paulina Sawa-Oponowicz, Local Business Director, emagine.
Wykorzystujemy też szereg modeli prognostycznych, symulacyjnych i makroekonomicznych dla lepszego podejmowania decyzji – np. związanych z inwestycjami w reklamę, marketing i rozwój produktów. Jedną z aktywnych grup użytkowników takich modeli jest zarząd Allegro.
Aleksandra Kozacka, dyrektor ds. dostarczania rozwiązań IT, PZU: Oprócz wspierania działalności podstawowej, od dawna mamy do czynienia z algorytmami wykorzystywanymi w obsłudze korespondencji w naszej kancelarii centralnej. AI wspiera naszych głównych procesów, które są realizowane na wielką skalę. Właśnie taka optymalizacja ma sens.
INSPIRACJE I ZAPOŻYCZENIA W AI
W jaki sposób poszukują Państwo inspiracji do kolejnych zastosowań algorytmów AI? Czy poszukują ich Państwo skanując własną organizację i jej potrzeby, czy szerzej, patrząc na jakieś ulubione przypadki, liderów sektorowych?
Agnieszka Myszkiewicz-Kurkiewicz: Stworzyliśmy własny zespół kompetencyjny w obszarze wytwarzania i wykorzystywania dostępnych modeli AI, które wymagają dostosowania do potrzeb PZU.
Niezbędne kompetencje posiadamy m.in. w ramach Laboratoriom Innowacji. Jego zadaniem jest poszukiwanie na rynku innowacyjnych rozwiązań, przede wszystkim na rynku start-upów, które weryfikujemy, technologicznie i biznesowo.
Inspirujemy się potrzebą biznesową. W ten sposób wdrożyliśmy np. pierwsze rozwiązania własnego autorstwa do weryfikacji zdjęć pojazdu.
Marcin Choiński: Staramy się działać zarówno reaktywnie, jak i proaktywnie. Z jednej strony, kiedy użytkownicy biznesowi przychodzą do nas z konkretnym problemem, jako centrum kompetencyjne Data&AI, staramy się zaproponować optymalne zastosowanie AI dla danego wyzwania. Jednocześnie, jak wspomniałem, staramy się budować szeroką wiedzę i kulturę korzystania z tego typu rozwiązań oraz być tutaj aktywnym partnerem dla biznesu.
Nasze boty przeprowadzają ok. 1 mln rozmów miesięcznie. Mamy wiele klasyfikatorów tekstu i innych rozwiązań, np. z obszaru wizji komputerowej, ale ciągle poszukujemy nowych. Testujemy model do nienadzorowanej analizy tekstów – Dawid Kin, Head of AI, PKO BP.
Bardzo dobrze sprawdzają nam się regularne warsztaty, w trakcie których prezentujemy najnowsze możliwości AI, rozwiązania i Use Case’y. Następnie w ramach burzy mózgów – wspólnie z biznesem – generujemy pomysły, które poddajemy szybkiej weryfikacji, poprzez tworzenie prototypów, czy PoC’ów. Te, które rokują najlepiej, doczekują się MVP i wdrożeń produkcyjnych.
Kamil Konikiewicz: Zapewne wszędzie wygląda to podobnie, cały proces różni zaś stopień sformalizowania. Z jednej strony “Business first”, czyli większość projektów rozpoczyna się od wspólnego zidentyfikowania potrzeby biznesowej, a dopiero potem dobrania stosownego rozwiązania.
Z drugiej strony, śledzimy innowacje i monitorujemy rynek np. poprzez uczestnictwo w konferencjach, meetup-ach oraz debatach takich, jak dzisiejsza. W Allegro stawiamy też na uważną lekturę i eksperymentowanie z najnowszymi rozwiązaniami czy zastosowaniami publikowanymi w pracach badawczych przez liderów technologicznych.
Radosław Kita: Opieramy się na wymaganiach biznesu, który jest naszym klientem. Z drugiej strony, opowiadamy o różnego typu wymaganiach technicznych i ekonomicznych. Większość naszych systemów musi móc „reagować” w bardzo krótkim czasie, np. w przypadku rekomendacji treści dla konkretnego użytkownika strony. Mamy na to 10, 15, maksymalnie 50 milisekund, co przekłada się na bardzo wysokie wymagania technologiczne.
Warto dodać, że rynek sztucznej inteligencji w ostatnim czasie mocno się zmienił. Kiedyś zaczynaliśmy trenowanie nowych rozwiązań AI od podstaw. Dziś mamy gotowe narzędzia, „pudełkowe”, które jedynie dotrenowujemy, aby uzyskać gotowe rozwiązanie. Można nawet zamówić dedykowaną usługę tego typu. Przykładowo firma Hugging Face oferuje trenowanie gotowych modeli.
Marcin Choiński: Rynek Generative AI dość szybko się konsumeryzuje. Pierwotnie sam koszt nauczenia modelu Foundational klasy LLM, jak np. GPT, wynosił ok. 5 mln USD, a dzienne koszty działania takiego GPT, to wg niezależnych wyliczeń ok. 0,7 mln USD. Dziś niektóre modele mieszczą się już na telefonach, a koszt ich budowy potrafi być rząd wielkości niższy. Jednocześnie jakość – po odpowiednim dotrenowaniu – potrafi być porównywalna z dużymi modelami. Te zmiany następują z dnia na dzień, na naszych oczach.
Radosław Kita: W chmurach publicznych pojawiły się rozwiązania, które pozwalają korzystać z tych modeli, w sposób zapewniający wszystkie jej zalety, a więc m.in. skalowalność, bezpieczeństwo.
Stworzyliśmy własny zespół kompetencyjny w obszarze wytwarzania i wykorzystywania dostępnych modeli AI, które wymagają dostosowania do potrzeb PZU. Inspirujemy się w działaniu potrzebą biznesową – Agnieszka Myszkiewicz-Kurkiewicz, dyrektor ds. dostarczania rozwiązań IT, PZU.
KOMPETENCJE I BUDOWA ZESPOŁÓW AI
Tego typu kwestie są interesujące także ze względu na gospodarowanie własnymi zasobami. Kompetencje AI są w cenie, a budowanie zespołów jest trudne i wymaga konkretnego uzasadnienia.
Marcin Kosiński: Kompetencje decydują o tym, czy możemy i potrafimy wykorzystać dany model AI, a więc czy znajdziemy dla niego zastosowanie. Wielokrotnie zaczynaliśmy od analizy tego, jakie mamy dane, kto ma podobne i co z nimi robi. Inspirujemy się wówczas działaniami konkurencji. Bywa też, że biznes sięga po AI zachęcony przez działy analityczne, a niekoniecznie motywowany własnymi potrzebami.
Dawid Kin: Czasami po prostu spotkamy się z przedstawicielami jednostek, z którymi jeszcze nie współpracujemy. Opowiadają nam o swojej pracy, procesach, wyzwaniach i wykorzystywanych aplikacjach, a my myślimy o potencjalnych rozwiązaniach.
Zdarza się, że podczas pierwszego warsztatu wpadamy na pomysł, a chwilę później pracujemy nad prototypem modelu AI, który pomoże zautomatyzować jakiś krok w procesie. Oczywiście cały czas śledzimy nowości, inspirujemy się i szukamy rozwiązań, które mogą dostarczyć nowe możliwości lub usprawnić znane nam procesy.
Aby działać sprawnie w taki sposób, trzeba oczywiście – oprócz zespołu inżynierskiego – zaangażować osoby o profilu biznesowym, które znają organizację, jej potrzeby i potrafią zaplanować wykorzystanie AI w procesie biznesowym. Taki schemat komplementarnych umiejętności świetnie działa w naszym przypadku.
CHIEF AI OFFICER – PROMOTOR, PRZEWODNIK, ARCHITEKT
Czy wspomniana osoba z wiedzą o firmie, to nowy profil architekta AI?
Dawid Kin: Raczej „biznesowi integratorzy rozwiązań”. Niekoniecznie muszą mieć szerokie kompetencje techniczne, ale muszą rozumieć jak działa technologia. Oczywiście w przypadku zidentyfikowania Use Case, trzeba wejść w szczegóły technologiczne. Wtedy niezbędne staje się zaangażowanie ludzi od uczenia maszynowego, których wiedza zweryfikuje, czy to zadanie może być faktycznie zrealizowane.
Pierwotnie sam koszt nauczenia modelu Foundational klasy LLM, jak np. GPT, wynosił ok. 5 mln USD, a dzienne koszty działania takiego GPT, to wg niezależnych wyliczeń ok. 0,7 mln USD. Dziś niektóre modele mieszczą się już na telefonach, a koszt ich budowy potrafi być rząd wielkości niższy – Marcin Choiński, Data & AI Department Director, TVN Warner Bros.Discovery.
Agnieszka Myszkiewicz-Kurkiewicz: Ta rola, funkcjonująca także u nas. Ma cechy promotora AI od strony technicznej.
Radosław Kita: Z jednej strony mamy specjalistów od AI, którzy problem mogliby rozwiązywać przez lata, świetnie się przy tym bawiąc. Z drugiej strony są wymagania biznesowe i ograniczenia techniczne. Sam proces poznawania różnic jest oczyszczający.
Aleksandra Kozacka: Ważnym aspektem są także koszty. W naszej firmie mówimy, że używamy AI w odpowiedzi na potrzebę poprawy efektywności. Minęły już czasy, gdy bardziej opłacało się zatrudnić 50 studentów do sprawdzania dokumentów czy zdjęć niż budować model AI i implementować rozwiązania technologiczne.
Marcin Choiński: Wdrażając nowe rozwiązanie staramy się jak najszybciej zweryfikować jego użyteczność. Niejednokrotnie procesy, które wydawały się idealne do zautomatyzowania przy użyciu AI, okazywały się „za trudne”. Proces realizowany po staremu okazywał się skuteczniejszy pod względem jakości, zdolności realizacji oczekiwań biznesu i kosztów. W wielu przypadkach działa brzytwa Ockhama. Najprostsze rozwiązania są najlepsze i zamiast Deep Learning wystarczy sekwencja działań algebraicznych.
Najlepszym fundamentem świadomego działania w zakresie projektów AI są mityczni „unikorni”, czyli specjaliści z kompetencjami „full-stack”. Są to osoby, które potrafią być zarówno analitykiem biznesowym, inżynierem danych, modelarzem oraz ekspertem domenowym, który rozumie biznes, potrafi kodować, analizować dane i spojrzeć na dany problem z perspektywy zarówno IT, biznesu, jak i modeli oraz algorytmów.
Budowanie kompetencji organizacji opartych na takich osobach jest trudne ze względu na ich niską podaż i wysokie koszty. Ale sprawdza się lepiej niż korzystanie z zasobów zewnętrznych. Często produktywność jednej takiej osoby można porównać z 5-osobowym zespołem od dostawcy.
Ryzykiem jest też oczywiście to, taka kluczowa osoba może odejść i jej zastąpienie jest niezwykle trudne. Mimo to, wpływ takiego podejścia na jakość i efektywność implementacji AI w organizacji oraz jej skorelowanie z potrzebami biznesu jest nie do przecenienia. Szczególnie w obecnych, pionierskich czasach.
Użytkownicy Allegro wchodzą w interakcje z modelami ML chociażby w kontekście rekomendacji, wyszukiwania czy przeglądania listy ofert. AI określa też m.in. spodziewany czas dostawy zamówienia, umożliwia wyszukiwanie produktów na podstawie zdjęć (tzw. Visual Search), czy wspiera szacowanie dostępnego limitu w Allegro Pay – Kamil Konikiewicz, Head of Data Science, Allegro.
Kamil Konkiewicz: Dodatkowo rynek AI bardzo przyśpiesza i się demokratyzuje. Widać to choćby po rozwoju obszaru generatywnej AI, która mimo wykorzystania złożonych algorytmów i architektury, najczęściej jest udostępniona końcowym użytkownikom za pomocą prostych aplikacji lub interfejsu w języku naturalnym. Ta dostępność to szansa, ale i duże ryzyko, że dostawca algorytmów czy usługi analitycznej omami biznes „analitycznymi świecidełkami”. Biznes nie zawsze ma możliwość krytycznej oceny potencjału takiego rozwiązania bez znajomości zakresu wykorzystanych danych czy procesu uczenia.
Najbardziej lubię schemat współpracy, w którym to biznes opowiada o procesie i wyzwaniach, przed jakimi stoi. Następne zadajemy pytanie jakimi danymi dysponuje i jak do tej pory wykorzystywał je do rozwiązania wybranych problemów. Dopiero potem rozpoczyna się etap warsztatowy, w którym dążymy do rozwiązania problemu, rozważając całą paletę możliwych rozwiązań – często rozpoczynając od najprostszych, również nie opartych o ML.
Systematyczne przejście przez różne warianty z uwzględnieniem kosztów, czasu implementacji czy ryzyka biznesowego, pozwala w dużym stopniu zredukować ryzyko zmaterializowania się zjawiska tzw. pro-innovation bias.
Maciej Rudziński: Często wizję biznesu – zainspirowaną doniesieniami prasowymi – trzeba odczarowywać, konfrontując oczekiwania i wyobrażenia np. z dostępnymi danymi.
DYSTRYBUCJA KOMPETENCJI AI PO STRONIE BIZNESU
Czy docelowo interfejsem współpracy IT, w szczególności w obszarze AI z biznesem, nie powinien być wewnętrzny marketplace? Wówczas te negocjacje toczą się w kontrolowanym środowisku, a przestrzeń ta pozwala też budować scenariusze i schematy procesów, większe całości z udostępnianych rozwiązań. A może jest jakiś lepszy model?
Dawid Kin: Modeli współpracy może być tyle, ile firm. Każdy z nas byłby w stanie zaproponować inny i udowodnić, że jego rozwiązanie sprawdza się w danej organizacji. Mamy w banku zespoły, które dostarczają rozwiązania na potrzeby swoich jednostek oraz takie, które zajmuje się tą tematyką szerzej. Istnieje też Biuro Innowacji, które odpowiada m.in. za współpracę ze start-upami. Pragnę zaznaczyć, że nie są to silosy, ale raczej filary, które faktycznie wdrażają różne rozwiązania.
Jeżeli chodzi o zespoły, które zajmują się konkretnym obszarem, odpowiadają one m.in. za ryzyko kredytowe i sprzedaż. Mamy też zespół, którego zadaniem jest rozwój sztucznej inteligencji w trochę szerszym ujęciu – zajmuje się botami, przetwarzaniem języka naturalnego, wizją komputerową i innymi rozwiązaniami AI, m.in. jako dostawca dla wewnętrznych klientów. Ten zespół potrafi szeroko myśleć o bankowych procesach i dostarczać rozwiązania z rożnych dziedzin o szerokim spektrum zastosowań. W ten sposób budujemy know-how.
Docelowo biznes – w naszym przypadku eksperci sprzedaży, likwidacji – mogliby dostosowywać wybrane modele do swoich potrzeb. Ale potrzebują mieć u siebie specjalistów od AI, którzy pomagają im wybrać i dostosować usługę biznesową z katalogu – Aleksandra Kozacka, dyrektor ds. dostarczania rozwiązań IT, PZU.
Startujemy również z inicjatywą AI@Scale i jednym z założeń będzie zacieśnienie współpracy pomiędzy zespołami, dostarczającymi tego typu rozwiązania, ale również demokratyzacja AI, standaryzacja i dostarczanie rozwiązań do wielokrotnego użytku.
Chcielibyśmy również zbudować wewnętrzny marketplace, pewnego rodzaju rejestr rozwiązań, które są w banku. To pomoże na wielu poziomach, także w wymiarze edukacyjnym, bo dużo osób czyta artykuły eksperckie lub zachwyca się czymś, o czym usłyszał na konferencji – nie wiedząc, że w banku już takie rozwiązanie funkcjonuje. Marketplace byłby dobrym środkiem do upowszechnienia wiedzy o tym, co już u nas funkcjonuje.
Agnieszka Myszkiewicz-Kurkiewicz: Jest to wyzwanie dla wielu dużych organizacji – my także się z nim mierzymy. Liczba osób zainteresowanych AI jest duża. Bardzo często osoby te jeszcze nie wiedzą, ile usług i rozwiązań AI już wykorzystujemy.
Kamil Konikiewicz: Zapamiętujemy 10% tego, co usłyszymy, a 90% tego, co zrobimy. Nie wierzę w skalowanie AI bez dystrybucji kompetencji w formule hands-on, np. poprzez wspólną realizację projektu lub pilotażu ramię w ramię z bardziej doświadczonymi ekspertami. Dopiero wtedy działania typu prezentacje, wymiany wiedzy czy seminaria mogą spełnić rolę jako ugruntowanie doświadczeń praktycznych. W przeciwnym wypadku giną w gąszczu innej komunikacji.
Ważne, aby zbudować rolę lidera po stronie jednostki biznesowej, która ma być odbiorcą rozwiązań AI. Losy inkubacji kompetencji AI zależą od tego, jak silny jest lider, mentor i jak duża jest determinacja, aby faktycznie budować społeczność, a nie realizować punktowe projekty.
Jakich kompetencji potrzebuje wspomniany lider – mentor?
Kamil Konikiewicz: Absolutne minimum to rozumienie struktur danych, umiejętność doboru typu algorytmu do rozwiązywanego problemu oraz wysokie umiejętności komunikacyjne niezbędne w sprawnym balansowaniu pomiędzy biznesem a technologią. Konieczne są także ściśle techniczne umiejętności – związane z inżynierią oprogramowania i danych, albo przynajmniej posiadanie w zespole osoby, która będzie w stanie rozwijać społeczność inżynierów i Data Scientist’ów. Bez merytorycznego lidera, będą oni wracali do dużych, centralnych zespołów, gdzie znajdą największe szanse na rozwój i zróżnicowane projekty.
Radosław Kita: Pozycję lidera i ten schemat organizacji warto podeprzeć polityką wspierającądemokratyzację dostępu do danych uzupełnioną dobrym katalogiem, opisem i odpowiedniej jakości danymi.
Staramy się wspierać konsultantów w procesie poszukiwania nowych ofert pracy. Wyzwaniem jest samo stworzenie silnika, który przetwarza wszystkie, możliwe typy nadsyłanych życiorysów na jeden model danych – Marcin Kosiński, Data Scientist, emagine.
Marcin Choiński: Temat AI jest obecnie bardzo ‘sexy’ i na czasie, więc samoistnie wyłania się wielu kompetentnych partnerów po stronie biznesu. W naszej organizacji, szefowa strategii online ukończyła kurs AI na Oxfordzie, a szefowa Privacy Office – wspierająca wdrażanie GDPR, AI Act, czy Data Act – przeszkoliła się z Pythona i budowy modeli ML, aby być dla nas jeszcze lepszym partnerem do dyskusji. Jest to ogromna wartość i ułatwienie w pracy nad konkretnymi projektami oraz nową kulturą organizacyjną.
AI MARKETPLACE, CZYLI SZTUCZNA INTELIGENCJA A’LA CARTE
Marcin Choiński: Jak już wcześniej wspomniałem, rozwijamy autorską platformę Promptly. To wewnętrzny marketplace, który udostępnia konkretne funkcjonalności wykorzystując Generative AI i nie tylko. Takie podejście doskonale się sprawdza.
Biznes zaczyna – poprzez taką platformę – adaptować rozwiązania oparte o AI w codziennej pracy. Oczywiście nie jest to odpowiednik Hugging Face dla organizacji, ale zbiór gotowych, przetestowanych i wykorzystywanych już usług, takich jak np. wspomniana wcześniej transkrypcja nagrań audio, czy wideo na tekst, możliwość zaawansowanej analizy zawartości zbioru dokumentów z wykorzystaniem LLM, generowanie promptów na przykładach uczących, optymalizowanie tekstów pod SEO, generowanie pomysłów na content, itp.
Aleksandra Kozacka: Takie podejście bardzo upraszcza adaptację, ale nie byłoby możliwe na rynku regulowanym. Docelowo biznes – w naszym przypadku eksperci sprzedaży, likwidacji – mogliby dostosowywać wybrane modele do swoich potrzeb. Ale potrzebują mieć u siebie specjalistów od AI, którzy pomagają im wybrać i dostosować usługę biznesową z katalogu.
Marcin Choiński: To bardzo ważne od strony semantycznej. Nie można mówić o modelach. W komunikacji z biznesem lepiej mówić o usłudze biznesowej.
Agnieszka Myszkiewicz-Kurkiewicz: To jest bardzo proste rozwiązanie. Ale jeżeli skupiamy się na większym, złożonym procesie, to – przynajmniej w PZU – okaże się to zbyt specyficzne. Dlatego nie da się wystawić jednej usługi AI, z której skorzysta wiele obszarów. Marketplace może zadziałać w przypadku prostych usług, których używa się na co dzień jako narzędzia wsparcia do pracy, ale nic ponadto.
Dawid Kin: Ewentualnie mógłby sprawdzić się model sklepu, ale z doradcą, który pomaga spersonalizować produkt.
W naszej firmie sztuczna inteligencja wspiera głównie procesy sprzedażowe i obsługowe, np. w czatach wykorzystujemy analizę tekstu i obrazu – Maciej Rudziński, kierownik Zespołu ds. Dostarczania Rozwiązań IT, PZU.
Paulina Sawa-Oponowicz: Wydaje mi się, że obecnie mamy dostęp do szerokiej gamy możliwości, usług, komponentów, które można połączyć w większe, celowane rozwiązania. Ale do tego potrzebny jest swego rodzaju przewodnik po tym złożonym świecie. Ograniczenie możliwości wyboru gotowych katalogów ograniczy pole do inwencji i innowacji procesowej.
Nawet jeżeli mówimy o formule, kiedy ktoś będzie językiem naturalnym łączył kod, to w pewnym momencie może się okazać, że wykorzystał mimowolnie biblioteki zastrzeżone pod względem praw autorskich. Użyje np. kodu zastrzeżonego tylko do zastosowań niekomercyjnych. To duże ryzyko dla organizacji.
Dlatego warto zadbać, aby przekuć model czy algorytm w usługę biznesową, która zarazem nie obróci się przeciwko organizacji.
Marcin Choiński: Mówiliśmy o komunikacji z AI w języku naturalnym, czyli o tzw. promptingu. Przez pierwsze tygodnie i miesiące od upowszechnienia się modeli LLM – Large Language Models – mówiło się o kompetencji przyszłości, tzw. Prompt Engineeringu. Obecnie można stwierdzić, że niedługo stanie się to powszechną kompetencją, swoistym „commodity”.
Obecnie na tzw. topie jest budowanie agentów, wyspecjalizowanych w realizacji konkretnych zadań z użyciem LLM. Dodatkowo funkcjonalności modeli stają się coraz większe, dzięki tzw. plug-in’om. Patrząc krok dalej, idziemy w kierunku AI, które będzie używać innych narzędzi, w tym innych modeli algorytmów. Żyjemy w czasach, gdy z dnia na dzień zmieniają się nie tylko uwarunkowania, ale i całe paradygmaty.
Radosław Kita: Dostrzegam dwie kategorie ryzyka. Po pierwsze, korzystając z takich narzędzi jak ChatGTP, bardzo łatwo uzyskać rozwiązania, które można implementować do zestawów dużej ilości danych. Jednak bez dostosowania procesów takie rozwiązanie nie spełni roli.
Drugie ryzyko to podatności gotowych funkcji i bibliotek AI. Zdarza się to największym, dość powiedzieć, że potężną wpadkę zaliczyło OpenAI, kiedy z powodu podatności użytej biblioteki wypłynęły dane użytkowników.
Z jednej strony większość projektów rozpoczyna się od wspólnego zidentyfikowania potrzeby biznesowej, a dopiero potem dobrania stosownego rozwiązania. Z drugiej strony, śledzimy innowacje i monitorujemy rynek np. poprzez uczestnictwo w konferencjach, meetup-ach oraz debatach takich, jak dzisiejsza – Kamil Konikiewicz.
AI ETYCZNE I / LUB SKUTECZNE?
Co jakiś czas wraca temat etyki AI. Podejście etyczne może być wehikułem, który pozwala zrozumieć i przetworzyć zapisy prawne wszystkim użytkownikom tych rozwiązań i ich twórcom. Unia Europejska poprzez AI Act będzie kształtować sposób wykorzystania AI. Jak to wpływa na Państwa działania, na realizowane projekty?
Dawid Kin: AI Act jest na tyle otwarty, że będzie miał tak naprawdę zastosowanie dla wielu technologii. Regulacja koncentruje się na wyznaczeniu pewnych ram i podziale rozwiązań według kategorii ryzyka.
Na tym etapie trudno jest mi ocenić, jak proces dokumentowania czy audytowania rozwiązań wpłynie na dynamikę wdrażania AI w PKO BP, ale z pewnością pozwoli zdefiniować kwestie etyki AI. Na razie są one często regulowane tylko tym, w jakiej firmie pracujemy.
Aleksandra Kozacka: W kontekście etyki myślę o własności intelektualnej. Jeśli np. architekt wpisuje w ChatGPT zapytanie o architekturę systemu dla określonej sytuacji i szuka inspiracji, albo developer pyta o obsłużenie konkretnego przypadku w kodzie. Sprawny architekt systemowy czy deweloper poradzi sobie z przefiltrowaniem wyników ChatGPT, ale junior niekoniecznie.
Kamil Konikiewicz: Mieliśmy ostatnio podobną dyskusję. Jakie ryzyko wniesie wprowadzenie narzędzi konwersacyjnych opartych o LLM jako plug-inu dla edytorów kodu? Czy wszyscy nagle przestaną pisać samodzielnie kod? No nie! Przecież 99% programistów na co dzień odwiedza serwisy takie jak Stack Overflow i korzysta z zamieszczonych tam cudzych komentarzy i podpowiedzi, często bez kompleksowej weryfikacji ich poprawności, praw autorskich, o tożsamości autora nie wspominając.
Organizacje wprowadzają standardy jakościowe i procesy testowania oprogramowanie właśnie po to, aby ewentualne błędy logiczne, wydajnościowe zidentyfikować przed wdrożeniem rozwiązania. Niezależnie od tego, czy wytworzył je człowiek, czy maszyna. W tym zakresie jestem więc ostrożnym optymistą.
A wspomniane regulacje w tym nie pomogą?
Kamil Konikiewicz: Generatywne AI wprowadza zupełnie nowy stopień swobody, który nie został uwzględniony np. w procesie tworzenia regulacji takich, jak AI Act. Czas przygotowania tego typu ustaw pozostawia wiele do życzenia, ale nawet gdyby go skrócić do granic możliwości, to prawo nigdy nie nadąży za technologią.
W ostatnim czasie intensywnie pracujemy nad wykorzystaniem Generative AI. Wdrożyliśmy i na bieżąco rozwijamy własną platformę o nazwie Promptly. Konsumeryzuje ona i daje self-service dla zastosowań tych modeli przez użytkowników biznesowych – Marcin Choiński.
Poza tym, żadne regulacje nie obronią nas przed nieetycznym zastosowaniem tych technologii – np. w zakresie dezinformacji (np. tworzenia lub interakcji z treściami – przyp. red.), czy nadużyć (np. podszywania się pod inne osoby, kradzież tożsamości – przyp. red.).
Najlepszą, choć kosztowną i czasochłonną metodą obrony przed tego typu działaniami jest głęboka edukacja społeczeństwa, wspierana systemowo i rozpoczynająca się nawet od poziomu przedszkola.
Marcin Choiński: AI Act i Data Act zawierają wymagania, które przenikają do warstwy danych i nakładają obowiązki na m. in. samo zarządzanie danymi. Jestem ciekaw, czy regulatorzy poprawią tempo dostosowywania prawa do uwarunkowań. Obecnie zmiany w technologii niesłychanie przyśpieszyły.
Do tworzenia dobrych przepisów trzeba eksperta technologicznego i biznesowego, który rozumie dokładnie jak działają modele, filozofa etyka, który spojrzy z perspektywy geopolityki, polityki, etyki i prywatności, a także eksperta futurologa, bo regulację trzeba stworzyć minimum na 5 lat do przodu.
HYPE NA AI ZA SPRAWĄ KOWALSKIEGO
Dużo mówimy o Chat GTP i Natural Language Processing. Czy to jest największy hype w AI?
Dawid Kin: Prawdopodobnie tak, ale jakiś czas temu największy mieliśmy na model Stable Diffusion i generowanie grafiki przez algorytmy AI.
Marcin Choiński: Najbardziej gorący trend to nie tyle NLP, co LLM i szerzej Generative AI.
W przypadku zidentyfikowania Use Case, trzeba wejść w szczegóły technologiczne. Wtedy niezbędne staje się zaangażowanie ludzi od uczenia maszynowego, których wiedza zweryfikuje, czy to zadanie może być faktycznie zrealizowane – Dawid Kin.
Dawid Kin: Tak naprawdę hype zaczyna się w momencie, kiedy przeciętny Kowalski dostaje okienko, w którym może komunikować się ze sztuczną inteligencją i uzyskuje sensowne odpowiedzi. Ten model będzie zapewne powielany w następnych falach rozwoju technologii i przy kolejnych rozwiązaniach.
Czy na fali tej konsumenckiej popularności upowszechniają się rozwiązania pomocne także w zastosowaniach korporacyjnych?
Kamil Konikiewicz: Oczywiście, jest ich dużo i dotykają wielu aspektów działania większych firm. Począwszy od zastosowań kreatywnych – tworzenia treści, opisów marketingowych i sprzedażowych, poprzez usprawnienie wyszukiwania produktów (np. w formie opisowej czy konwersacyjnej) czy automatyzację obsługi klienta. Przyglądamy się także zastosowaniom wewnętrznym, wspierającym pracę inżynierów i analityków, np. w zakresie optymalizacji kodu czy przyśpieszania prostych zadań związanych z analityką danych.
Marcin Choiński: GitHub Copilot to usługa, która za ok. 19 USD, jest de facto w stanie wykonywać pracę junior developera, pobierającego miesięcznie ok. 4000 USD.
Kamil Konikiewicz: Trzeba powiedzieć, że nadal nie mamy takiego poziomu zaufania do rozwiązań AI, aby całkowicie powierzyć im np. zarządzanie wybranym procesem biznesowym albo jego fragmentem. Rozwiązania generatywne to szansa ogromnego przyspieszenia i automatyzacji, ale nadal jeszcze nie rewolucja na zasadzie pełnej autonomii. Myślę, że część odbiorców biznesowych do końca nie zdaje sobie jeszcze z tego sprawy.
Radosław Kita: Czy wydaje Ci się, że reprezentujemy branżę inną niż np. tkacze dywanów w XX wieku? Proces automatyzacji zachodzi wszędzie. Oprogramowanie jest po prostu kolejne na liście. I jest to nieuchronna zmiana.
W samej kwestii produkcji oprogramowania pytanie brzmi: na ile proces i programiści potrzebują mocnego wsparcia, przyspieszenia procesów. Być może te gotowe usługi – oparte o AI – powinny być częścią platform Software Engineering jako element bezpieczny i gotowy do zastosowania.
W naszej firmie mówimy, że używamy AI w odpowiedzi na potrzebę poprawy efektywności. Minęły już czasy, gdy bardziej opłacało się zatrudnić 50 studentów do sprawdzania dokumentów czy zdjęć niż budować model AI i implementować rozwiązania technologiczne – Aleksandra Kozacka.
Kamil Konikiewicz: Jak już wspomnieliśmy wcześniej, takie rozwiązania nie są znacznie bardziej ryzykowne w działaniu, niż fragment kodu ściągnięty z Internetu czy napisany przez początkującego developera. Powinny zatem podlegać tym samym praktykom i zasadom wdrażania oprogramowania.
Być może jeśli code review – które będą obecnie realizują Senior Developerzy – będą gromadzone w scentralizowanej bazy wiedzy, to z czasem osiągnięcie poziomu seniora będzie powszechnie dostępne, również dla modeli AI.
Marcin Kosiński: Być może code review będą robili właśnie etycy?
Paulina Sawa-Oponowicz: Wtedy będzie to inna kompetencja. Tak, jak dziś funkcjonuje DevOps, w przyszłości być może będą funkcjonować AIOps.
Kamil Konikiewicz: Ale zawsze ktoś musi zapewnić warstwę translacji pomiędzy częścią techniczną, biznesową i składniową. Kto zapewni, że to tłumaczenie jest odpowiednio dobrej jakości?
Czy taka kompetencja, o której mówiła pani Paulina, może być również dostarczana z zewnątrz, na zasadzie certyfikatu czy audytu, który potwierdza – w zautomatyzowany sposób – że np. dana część kodów wykorzystujące elementy AI jest właściwie zaimplementowana i bezpieczna?
Marcin Choiński: To prawdopodobnie będzie pochodną regulacji, albo samoregulacji. Kiedy wszedł GDPR, powstała potrzeba wdrażania odpowiednich procesów, przeprowadzania audytów oraz zapewnienia compliance.
Drugie ryzyko wdrożenia sztucznej inteligencji to podatności gotowych funkcji i bibliotek AI. Zdarza się to największym, dość powiedzieć, że potężną wpadkę zaliczyło OpenAI, kiedy z powodu podatności użytej biblioteki wypłynęły dane użytkowników – Radosław Kita.
Radosław Kita: Tak naprawdę robimy to zawsze. Mamy testy jednostkowe, podatności itd. Nie jest to więc certyfikowane w sensie prawnym, ale zdroworozsądkowym, w oparciu o dobre praktyki. Obejmuje to także rozwiązania, które są generowane automatycznie.
Kamil Konikiewicz: Jakiś czas temu czytałem o przykładzie odwróconego treningu – tzw. Adversarial Training- w którym programiści byli w stanie oszukać algorytmy wizyjne udowadniając, że broń palna nie zostanie przez nie wykryta, o ile byłaby położona obok pewnych konkretnych przedmiotów. Łatwo sobie wyobrazić konsekwencje tego typu luk, jeśli w oparciu o podobne algorytmy implementowane będą np. systemy bezpieczeństwa na lotniskach.
ULUBIONE BŁĘDY IMPLEMENTACJI AI
Mówimy o pewnych błędach systemowych. Czy jednak możemy pokusić się, aby sformułować katalog błędów w adaptowaniu AI z perspektywy firmy?
Kamil Konikiewicz: Jeden z podstawowych błędów polega na uleganiu pokusie innowacyjności za wszelką cenę. To czynnik, na który bardzo trzeba będzie uważać w najbliższym czasie, aby – na ołtarzu innowacyjności – nie składać wartości biznesowej, użyteczności albo po prostu bardziej potrzebnych i ważniejszych projektów, które mają „pecha” nie wykorzystywać najnowocześniejszej technologii.
W odniesieniu do AI ta ekscytacja ma być może większy ciężar gatunkowy niż np. wcześniejsza moda na wdrażania DevOps.
Kamil Konikiewicz: Nie znamy jeszcze do końca możliwości rozwiązań generatywnego AI. Ciężko jeszcze powiedzieć jaki panuje rozdźwięk między tym co obiecuje i dostarcza. Na pewno jednak dowiemy się o tym szybciej niż w przypadku poprzednich technologii. Łatwość użycia tej technologii sprawia, że jest to raczej kwestia miesięcy niż lat.
Marcin Choiński: Wszystkie modele halucynują, mijają się z prawdą, popełniają błędy. Mamy więc potem do czynienia z kwestią wyważenia, do czego stosujemy rezultaty i jakie jest ryzyko związane z wystąpieniem takich błędów – biznesowych, czy wizerunkowych.
Rynek AI przyśpiesza i demokratyzuje się. Widać to choćby po rozwoju obszaru generatywnej AI, która jest udostępniana za pomocą prostych aplikacji lub interfejsu w języku naturalnym. Ta dostępność to szansa, ale i duże ryzyko, że dostawca algorytmów czy usługi analitycznej omami biznes „analitycznymi świecidełkami” – Kamil Konikiewicz.
Czyli błąd to nie tyle cecha immanentna modelu jako składowej rozwiązania, ale brak nadzoru nad całością, brak świadomości celu?
Marcin Choiński: Tylko wtedy pytanie dotyczy założeń: czy automatyzujemy w pełni, czy pozostawiamy w procesie człowieka?
Aleksandra Kozacka: W mojej ocenie poziom ekscytacji AI – który wpływa na poziom i ryzyko błędów – nie dotyczy tylko środowiska technologicznego. Każdy, przeciętny użytkownik próbuje rozmawiać z ChatGPT, wygenerować sobie ikonkę albo zdjęcie w dostępnej usłudze.
Wydaje mi się, że trudnością będzie rozmowa z partnerami, którzy poznają AI na takich zastosowaniach prywatnych, a potem przychodzą do nas z potrzebami biznesowymi. Ocena ryzyka, możliwość integracji z istniejącym środowiskiem, dostępność odpowiednich danych, ograniczenia prawne mogą być niezrozumiałe dla osób, które przenoszą oczekiwania i obietnice z rynku konsumenckiego na korporacyjny.
Radosław Kita: Tym bardziej, że realia mocno się zmieniły. Skoro wystarczy zapłacić za dostęp do GitHub czy Hugging Face ok. 20 USD i można produkować własne AI. Można nawet próbować je wdrożyć. To nowy rodzaj ryzyka.
Paulina Sawa-Oponowicz: Na pewno pojawi się problem pozycjonowania nowych, powstających przy pomocy narzędzi AI, treści, np. przez Google.
Agnieszka Myszkiewicz-Kurkiewicz: Wracając do błędów. Mieliśmy przypadek, kiedy to biznes przeforsował współpracę z pewnym start-up’em, ponieważ chciał szybko otrzymać rozwiązanie. Okazało się jednak, że zaproponowany model wymaga danych o takich parametrach, których nie jesteśmy w stanie dostarczać w żaden sposób.
Hype zaczyna się w momencie, kiedy przeciętny Kowalski dostaje okienko, w którym może komunikować się ze sztuczną inteligencją i uzyskuje sensowne odpowiedzi. Ten model będzie zapewne powielany w następnych falach rozwoju technologii i przy kolejnych rozwiązaniach – Dawid Kin.
Zabrakło więc de facto dojrzałości danych, wiedzy o nich i dopasowania do skali, którą ten proces miałby obejmować. Dlatego łatwiej obecnie orientować się na te rozwiązania, które można szybko dostarczyć, które są proste i dostarczają szybko zwrot. Wynika to z faktu, że proces samego wytwarzania rozwiązania, nawet ze zdefiniowanymi punktami kontrolnymi, nie do końca panuje nad materią AI.
Mówi Pani w zasadzie o wyzwaniach z perspektywy cyklu życia rozwiązania AI.
Agnieszka Myszkiewicz-Kurkiewicz: Bez tego podejścia przestajemy kontrolować ten proces.
Dawid Kin: Największy błąd, jaki możemy popełnić, to wypuszczać z rąk rozwiązania po wdrożeniu na produkcję. Niezbędne jest zaangażowanie się w ich utrzymywanie, chociażby automatyczne. W innym wypadku po pół roku może okazać się, że udział procentowy błędów wymknie się spod kontroli.
Czy tego typu odpowiedzialność powinna leżeć w rękach szefa działu AI?
Dawid Kin: Jest to odpowiedzialność zbiorowa. Jeżeli chcemy skalować rozwiązania w organizacji, szef działu AI jest w stanie tylko częściowo je kontrolować. Tak naprawdę trzeba włączyć biznes do tego procesu, bo tam mamy ekspertów domenowych, którzy potrafią sformułować oczekiwania.
Jednym z ich zadań powinno być cykliczne analizowanie rezultatów. Ekspert biznesowy najlepiej będzie wiedział, czy przeczytany przez niego tekst – i jego klasyfikacja przy pomocy zamówionego algorytmu – są właściwe.
Obecnie mamy dostęp do szerokiej gamy możliwości, usług, komponentów, które można połączyć w większe, celowane rozwiązania. Ale do tego potrzebny jest swego rodzaju przewodnik po tym złożonym świecie – Paulina Sawa-Oponowicz.
Kamil Konikiewicz: Przede wszystkim o projektach AI nie należy myśleć jako o kończących się w momencie wdrożenia. W cyklu życia projektu wykorzystującego sztuczną inteligencję mamy zdefiniowanych kilka kluczowych etapów – od etapu formułowania problemu biznesowego, przez eksplorację danych, przygotowanie prototypu, aż do wdrożenia. U progu każdego z nich jest bramka decyzyjna, na której można zatrzymać prace, jeśli dotychczasowe wyniki nie są satysfakcjonujące. Bardzo ważne, aby nie bać się podejmowania decyzji na możliwie wczesnych etapach projektu.
Marcin Kosiński: Często zużywa się środki i czas zespołu na tworzenie rozwiązania, które niby jest szyte na miarę, ale zawiera komponenty, które pojawiają się w innych miejscach. Warto więc zainwestować w sprawdzenie, czy niektóre komponenty rozwiązania nie są już gotowe.
Maciej Rudziński: Jeśli chodzi o błędy charakterystyczne dla projektów AI, to podkreśliłbym brak informacji zwrotnej z biznesu. Często, po jakimś czasie otoczenie się zmienia. Dane, na którym model pracuje także. Model traci więc na atrakcyjności i znaczeniu.
Czy biorąc pod uwagę wielkie nadzieje związane z AI, odsetek porażek w takich projektach jest wyższy? A może tolerowany jest większy margines błędów?
Marcin Choiński: Myślę, że jest to kwestia nastawienia danej organizacji. Jeżeli innowacyjna firma prototypuje, to akceptuje porażkę jako naturalny element procesu budowania innowacji. W efekcie, taka organizacja zgodzi się nawet na 9 porażek na 10 projektów, pod warunkiem, że ten jeden sukces skompensuje pozostałe porażki, niczym w venture capital.
Ciężko jest mówić o konkretnym odsetku tolerowanych porażek w projektach AI, bo jest on odnoszony do udziału porażek w projektach IT. Tymczasem projekty IT są z reguły technologiczne, a projekty innowacyjne – jak te związane z AI – mają bardziej charakter biznesowy.
Kamil Konikiewicz: Porażką może być także to, że pracujemy nad rozwiązaniem, wdrażamy je „z sukcesem”, ale potem okazuje się, że ono kompletnie nie przystaje do realiów. Podobną porażką jest wdrożenie rozwiązania i pozostawienie go bez dalszego nadzoru.
Przez pierwsze tygodnie i miesiące od upowszechnienia się modeli LLM mówiło się o kompetencji przyszłości, tzw. Prompt Engineeringu – komunikacji z AI w języku naturalnym. Obecnie na tzw. topie jest budowanie agentów, wyspecjalizowanych w realizacji konkretnych zadań z użyciem LLM – Marcin Choiński.
Z mojej obserwacji w segmencie średnich i dużych firm w Polsce minimum 30-50% ukończonych projektów Data Science to chybione albo porzucone inicjatywy. W obu przypadkach wdrożone rozwiązania nie działają, a mogłyby, gdyby wcześniej zadbać o ich adaptację do realiów biznesowych.
Dawid Kin: Sukcesem jest też to, jeśli tylko raz pomylimy się w danym obszarze. Jeśli nie powtarzamy błędów, to osiągamy sukces wynikający z wcześniejszej porażki.
Debatę poprowadzili Szymon Augustyniak i Adam Jadczak