InfrastrukturaBranżaBiznesAnalitykaRynek

CXO HUB: antyHype AI. Jak wdrażać AI pragmatycznie?

Podczas majowego spotkania CXO HUB dyskutowaliśmy o tym, na czym powinno polegać pragmatyczne, racjonalne podejście do adaptacji AI. W jaki sposób ominąć rafy hype AI – powierzchownego podejścia do adaptacji sztucznej inteligencji w gospodarce, w jaki sposób skutecznie wesprzeć – ale nie ugrzecznić i wyjałowić rozwój AI w Polsce?

CXO HUB: antyHype AI. Jak wdrażać AI pragmatycznie?

FOTO: Pexels/Kindel Media

Przewodnikami w dyskusji byli Michał Dżoga, Global Partnerships & Initiatives, EMEA Territory Director, Intel Corporation, Robert Kroplewski, pełnomocnik Ministra Cyfryzacji ds społeczeństwa informacyjnego w KPRM, współautor i promotor „Polityki dla rozwoju SI w Polsce od roku 2020”, Jarosław Królewski, założyciel i prezes Synerise, polskiego czempiona, budującego i dostarczającego ekosystem rozwiązań AI, Michał Pieprzny, szef SAS Institute Polska i Sławomir Soszyński, wiceprezes ds. technologii ING Bank Śląski, realizujący wizję oparcia konkurencyjności banku na efektywnej adaptacji rozwiązań i kompetencji AI.

Przełom czy przyspieszenie? A może – uporządkowanie rozwoju AI w Polsce?

Robert Kroplewski podkreślał znaczenie doprecyzowania podejścia do AI, które wyraża się inicjatywami regulacyjnymi, politycznymi. To jest właściwy wymiar odejścia od emocji i ryzyka hype’u – do pragmatycznego sięgania po AI. Ten trend ma szerszy, europejski wymiar, i pozwala odszukać swoje miejsce i szanse w kontekście AI także Polsce. Sprzyja racjonalnemu wykorzystaniu mocnych stron przez dostawców i wytwórców AI, inspiruje do działania ponieważ nakreśla ogólne ramy.

CXO HUB: antyHype AI. Jak wdrażać AI pragmatycznie?

Robert Kroplewski, pełnomocnik Ministra Cyfryzacji ds społeczeństwa informacyjnego w KPRM,
FOTO: archiwum redakcji

Taki charakter ma także polska Polityka AI, zatwierdzona w styczniu br. Dokument jest  zbieżny z tym, co się działo w tej materii w przestrzeni Unii Europejskiej i  krajów OECD. Jak oceniał Robert Kroplewski, dzięki temu zsynchronizowaniu kierunku przyłożenia siły, Unia Europejska może doszusować do wyścigu pomiędzy Stanami Zjednoczonymi i Chinami – w jego ocenie, mniej więcej od roku nastąpiło już wyrównanie potencjału badawczego.

Kierunek – wyjaśnialne i godne zaufania AI

Geneza porządków w AI jest wymuszona sytuacją. OECD w 2018 r. stanęła przed wielkim wyzwaniem nierozumienia wyzwań sztucznej inteligencji, nierozumienia konwergencji ekonomicznej między osiami systemowymi świata i wezwała ekspertów, żeby spróbowali zaproponować rozwiązania. Pojawiła się wówczas m.in. grupa, która opracowała koncept Stewardship of Trustworthy Artificial Intelligence – bardzo mocno zainspirowany przez grupę polską. Zawiera on ideę budowania zaufania, jako trzeciego elementu do modelu sztucznej inteligencji, obok danych i technologii. Ideę przełomową, która może stworzyć inną wartość, niż opartą na spójności systemu społecznego, jak w Chinach, czy stricte utylitarną, pochodzącą ze Stanów Zjednoczonych. „Przełom polega na tym, że chcemy, aby ta technologia była zrozumiana, aby byłą to technologią zaufania. A jednocześnie taka technologia może być marką, znakiem towarowym i stworzyć całkowicie nowy rynek na produkty AI. W ramach UE możemy stworzyć rynek, który może być silny do oddziaływania wobec właśnie rywalizacji globalnej” – mówił Robert Kroplewski.

Koordynacja zasobów – koordynacja celów

Unia Europejska i każdy z krajów Unii Europejskiej w niskim stopniu są skoordynowane w zakresie finansów, dostępu do infrastruktury, dostępu do danych, inwestycji w badania, inwestycji w badania podstawowe, na przykład badań sztucznej inteligencji. Polska ma ten sam problem. Dlatego celem stworzenia polityki sztucznej inteligencji było także stworzenie odpowiedniego ekosystemu w Polsce, który obejmuje przedsiębiorców, obszar nauki, edukacji od szkoły podstawowej aż po obszar badawczy, a jako sektor zamachowy – sektor publiczny, gdzie przewidziana jest duża rola Gov Techu i fundacji Platforma Przemysłu Przyszłości czy narodowych operatorów danych, takich jak PAIH. Do polityki AI zaangażował się także sektor wojskowy. „Ważne, aby odpowiednio zrównoważyć popyt i podaż. Nastawienie tylko na zakup, nie doprowadzi nas do wytworzenia IP, a tylko IP daje nam możliwość skalowania naszej działalności. Trzeba postawić, poprzez inwestycje finansowe, ustawienie odpowiednich wyzwań badawczych na możliwość wytwarzania wartości dodanej, czyli polskiej wartości wytwórczej jeśli chodzi o obszar sztucznej inteligencji” – mówił Robert Kroplewski.

Dziś szanse dla polskiego rynku AI leżą nie tylko w przetwarzaniu danych, bo już teraz Polska ma 46% zależności PKB od transgranicznego przepływu danych, ale w modelowaniu sztucznej inteligencji. Mówimy głównie o procesowaniu, analitykach, o statystykach, mniej już o machine learningu i sieciach neuronowych, natomiast modelowanie celu zastosowań sztucznej inteligencji jest przyszłością intelektualną i Polacy mogą być tutaj najbardziej predysponowani. „O tego typu umysły toczy się walka konkurencyjna jeśli chodzi o świat, a wskaźniki dowodzą, że jako Polska jesteśmy w 33% klasą kreatywną. To jest bardzo wysoki, ponadprzeciętny wskaźnik” – zauważył Robert Kroplewski.

Gotowi na AI?

Michał Dżoga, dyrektor do spraw relacji zewnętrznych na region EMEA i lider obszaru AI Rediness w Intelu, zauważył, że coraz mniej używa się już w kontekście AI słowa „zagrożenie”. Tymczasem, jest to aktualne, np. jeżeli mówimy o wymiarze makro i wyzwaniach przystosowanie przyszłej i obecnej kadry pracowniczej do nadejścia tej technologii i jej stosowania. Będziemy mieli do czynienia z automatyzacją, wiadomo, że niektóre kraje zostaną tym bardziej dotknięte. Badania OECD, uzależniają stopień automatyzacji od zamożności krajów i per capita produktu krajowego brutto, ale i tak oscyluje to około i ponad 35% zautomatyzowanych profesji. W Polsce rządowa Polityka AI wspomina o potencjalne automatyzacji na poziomie 49%. „Im lepiej się przygotujemy na te zmiany, także poprzez umiejętności cyfrowe, tym jako kraj, jako region, skorzystamy albo stracimy. Digital Rediness czy AI Readiness w Intelu już od wielu lat  jednym z kluczowych tematów. To nie tylko zadanie dla Intela, ale i dla rządów, dla całej branży, dla całego ekosystemu, żeby umiejętności AI propagować i popularyzować. A sztuczna inteligencja to tylko jeden z tych obszarów, powiązany przecież z IoT, 5G w system naczyń połączonych” – mówił Michał Dżoga.

Przeczytaj również
PrivMX chce ułatwić i zabezpieczyć świat pracy zdalnej z nowym wymiarem prywatności

CXO HUB: antyHype AI. Jak wdrażać AI pragmatycznie?

Michał Dżoga, Global Partnerships & Initiatives, EMEA Territory Director, Intel Corporation,
FOTO: Archiwum redakcji

Ważnym aspektem jest aplikowalność – na ile uczestnik czy beneficjent kursu lub programu uczącego nowych umiejętności jest w stanie wykorzystać to, czego się nauczył. „To jedno z kluczowych wyzwań w strategii Intela na najbliższe dziesięć lat, ważne w kontekście umiejętności AI: ważna jest otwartość i dostosowanie przekazu do osób nie tylko o profilu technologicznym” – dodał Michał Dżoga. Zaangażowanie na polskim rynku w organiczne, fundamentalne kwestie nie jest dla Intela przypadkowe. Polska na mapie Intela jest bardzo ważnym krajem, z największym ośrodkiem badawczo-rozwojowym poza Stanami Zjednoczonymi, zatrudniającym 3,5 tys. osób. Rozpoczyna się właśnie kolejna, sięgająca 100 mln USD inwestycja w jego rozwój. Bardzo duża część rozwiązań Intela globalnych, ma swój udział tutaj z Polski, w tym w obszarze AI, jak OpenVINO do optymalizacji modelu uczenia głębokiego. „Od lat wdrażamy na całym świecie kursy, szkolenia z AI dla różnych grup docelowych, od szkół średnich przez kształcenie zawodowe, szkolenia dla liderów, po to, żeby pomóc zrozumieć podejście i wyzwania, które pojawiają się przy adaptacji tej technologii. W Polsce mamy bardzo zaawansowane projekty z Ministerstwem Rolnictwa, z Ministerstwem Rozwoju Pracy i Technologii, trwają też rozmowy z Ministerstwem Edukacji” – mówił Michał Dżoga.

Anty-hype AI można wytrenować

 

Pochód AI nie ma więc oczywiście tylko wymiaru strategii i makro. Jest codziennym wyzwaniem dla firm szukających sposobu na poprawę konkurencyjności, efektywności. Michał Pieprzny, szef SAS Institute Polska, zauważył, że podejście pragmatyczne do adaptacji nowych technologii jest często miarą dojrzałości, doświadczenia w obcowaniu z technologią. „W SAS naturalną tendencją będzie zawsze podejście pragmatyczne, ponieważ jesteśmy organizacją komercyjną nastawioną na wspieranie naszych klientów i generowanie wartości poprzez analitykę, poprzez czytanie danych, zarządzanie nimi i generowanie insightów – przekładanie ich na konkretną wartość biznesową. Z takiego doświadczenia współpracy po stronie klienta zawsze rodzi się oczekiwanie, że pragmatyczne podejście jest standardem” – mówił Michał Pieprzny.

CXO HUB: antyHype AI. Jak wdrażać AI pragmatycznie?

Michał Pieprzny, Country Leader SAS Institute Polska,
FOTO: archiwum redakcji

AI definiowane jest w SAS Institute jako nauka trenowania systemów tak, aby emulowały wykonywanie zadań przez ludzi poprzez uczenie i automatyzację. AI nie zastępuje ludzi, ale modyfikuje i usprawnia to, co jako ludzie wykonujemy. To pozwala zmienić sposób pracy, usprawnić, zyskać umiejętności. Michał Pieprzny zauważył też, że AI nie jest i długo jeszcze nie będzie jednolitym rozwiązaniem. „Bywa porównywana do człowieka, do super mózgu – tymczasem jest to szybko rosnący zbiór różnych, bardzo specyficznych rozwiązań, które są trenowane i rozwijane do realizacji bardzo konkretnych zadań” – mówił szef SAS Institute. Jak mówił, z doświadczenia SAS wynikają trzy wymiary istotnie wpływające na możliwość adaptowania rozwiązań AI czy analitycznych.

Ludzie, procesy, zrozumienie

Pierwszy to ludzie, czyli najcenniejsze aktywa firmy – rozwój sztucznej inteligencji nie nastąpi sam z siebie. Sztuczna inteligencja, modele, machine learning, wszelkie technologie wchodzące w obszar sztucznej inteligencji, wymagają nadal ludzkiej ingerencji, trenowania, kontroli. Ludzie będą pozawalali dalej rozwijać się sztucznej inteligencji, ale czasami są barierą w tym procesie. Powodem może być sposób definiowania istotnych ról, np. data scientist. To z reguły osoba bardzo ciekawa świata, kreatywna, poszukująca nowych zależności, która nie lubi być ograniczona ramami. Tymczasem firmy zatrudniające ich mniej są zainteresowane rozwojem i badaniem, a bardziej szukaniem zależności, które można monetyzować. Może to powodować odpływ tych kluczowych przy wykorzystaniu AI ekspertów. W organizacjach, w zależności od różnych aplikacji biznesowych, powstają też rozproszone komórki wokół data science czy analityki. Rozwijają się trochę niezależnie, więc w obrębie jednej organizacji możemy obserwować rozwój analityki czy AI różnych prędkości, w zależności od tego, jak szybko są w stanie to monetyzować.

Drugi element, to procesy i governance wokół AI – będzie to zwykle zestaw bardzo celowanych aplikacji czy zastosowań, modeli, podejść. „Niektóre organizacje już to dostrzegają, że osiągamy punkt bardzo dużej złożoności i niezbędne staje się zarządzenia całym procesem, trenowaniem i produkcją. Bardzo ważnym elementem dla sztucznej inteligencji, żeby działała i mogła być monetyzowana, jest jej spójność ze strategią oraz pozostałymi procesami biznesowymi, z tymi częściami organizacji, które nie interesują się technologią. Ich interesuje konkretny wynik, konkretna rekomendacja biznesowa, konkretna szybsza, sprawniejsza decyzja” – mówił Michał Pieprzny.

Przeczytaj również
Jakiej cyfryzacji potrzebuje sektor zdrowia? Dla CXO HUB: prof. Jan Poleszczuk, Zakład Matematyki Onkologicznej, NIO

Technologia jest trzecim obszarem, gdzie barier mamy najmniej, natomiast pojawia się kwestia demokratyzacji AI i jej wytłumaczalności. Te kwestie warunkują zdolność integrowania. „Jeżeli popatrzymy się na krzywą dojrzałości różnych organizacji i zaawansowania w AI, można zaryzykować stwierdzenie, że dopiero zaczynamy naszą drogę. Mało jest organizacji, które są bardzo dojrzałe w swoim podejściu i organizacji tego obszaru” – zaznaczył Michał Pieprzny.

Polski potencjał AI: bez kompleksów

Trudność w efektywnej, pragmatycznej adaptacji AI może ją spowalniać na polskim rynku. Jak odbierają to nasi dostawcy rozwiązań? Czy Synerise, firma z Polski opierająca swój sukces na AI musi szukać klientów globalnych jak dotychczas, czy też przetarła ścieżkę przez nasz rynek? „Założyliśmy z góry, że jedyną rzeczą, którą możemy konkurować na świecie, jest intelekt. Dlatego, że możliwości finansowe do propagacji czy sprzedaży rozwiązań, dostarczania rozwiązań czy lobbingu na całym świecie mamy ograniczony. Osobiście marzę, aby w naszej części Europy tworzyły się teamy gromadzące talenty, które się tu wychowały, dorastały i uczyły, i żeby z tej części świata atakowały one globalne projekty i uczestniczyły w bitwie konkurencyjnej. My w wizji i misji Synerise zakładamy, ze chcemy walczyć z największymi na świecie. Czy uważam, że to jest możliwe? Oczywiści, że tak. Czy możliwe na naszym rynku? Także” – mówił Jarosław Królewski, szef i założyciel Synerise.

CXO HUB: antyHype AI. Jak wdrażać AI pragmatycznie?

Jarosław Królewski, CEO, Synerise,
FOTO: archiwum redakcji

Odnosząc się do deficytu kompetencji i odpływu talentów AI, Jarosław Królewski zauważył, że pomysłów idealnych nie można skalować wyłącznie ludźmi i pieniędzmi. „Najbardziej dla nas istotne projekty realizowane są przez małe teamy, które potem są propagowane, natomiast decyduje w dużej mierze jednostka” – zauważył. Podejście Synerise podporzadkowane jest trzem kwestiom. Po pierwsze, aby korelacja uzyskiwana dzięki rozwiązaniom była bliska ludzkiemu umysłowi. Po drugie, aby szybko ją uzyskiwać przetwarzając i w sposób swobodny absorbując dane. Po trzecie: e aby w oparciu o korelacje podejmować decyzje, czyli wykorzystywać AI na co dzień.

W ocenie Jarosława Królewskiego, doskonali to cały czas jakość pracy i efekty. „To się sprawdza, regularnie porównujemy się z największymi, udostępniając część naszego IP. Ostatnio przekazaliśmy do domeny Open Source nasze rozwiązanie Cleora, aby pokazać moc inżynierów w Polsce. Nasze rozwiązanie na głowę bije dwa dotąd główne standardy: Deep Walk i Py-TorchBigGraph, odpowiedzialny za wszystkie analizy Facebooka – 8 razy. Czyli da się to zrobić w Polsce rozwiązanie na globalną skalę. Regularnie mierzymy się z najlepszymi, np.  Synerise w 2020 r. wygrał bardzo znany konkurs Rakuten Data Challenge, gdzie Polacy nagle okazali się najlepsi również wśród Chińczyków” – mówił Jarosław Królewski.

Perspektywa CIO

Sławomir Soszyński jest CIO i VP w ING Banku Sląskim – praktykiem, który dużo inwestuje w technologię, w tym w AI. Jego zdaniem, niezbędne jest, aby państwo bardziej stymulowało rozwój AI w różnych elementach. W Polsce mówimy o kilku milionach złotych średnich inwestycji, w Europie mówimy o kilkudziesięciu, a Chinach i USA – o miliardach. Przy takim poziomie inwestycji nie jesteśmy w stanie efektywnie konkurować. PARP ocenia, że do 2025 roku tylko w sztucznej inteligencji będziemy potrzebować 200 tysięcy talentów. „Skąd je weźmiemy, jeśli system edukacji się drastycznie nie zmieni w tym kierunku?” – pytał Sławomir Soszyński. Jest też kwestia wsparcia budowy IP. „Ważną rzeczą pozostająca w gestii państwa są dzis prawa patentowe. Obecnie w Polsce bardzo trudno zdobyć patent, ten proces jest ekstremalnie biurokratyczny – tym trudniej jest konkurować. Dla firm technologicznych w Polsce naturalnym kierunkiem są więc rynki zachodnie. Rodzimy rynek IT, AI jest trochę przechowalnią talentów, która rozwija rozwiązania technologiczne czy biznesowe dla kogoś innego” – zauważa Sławomir Soszyński.

CXO HUB: antyHype AI. Jak wdrażać AI pragmatycznie?

Sławomir Soszyński, CIO i VP w ING Banku Śląskim,
FOTO: archiwum redakcji

Inny aspekt istotny w uruchomieniu adaptacji AI, to podejście dostawcy. „Z reguły firma przychodzi z komunikatem „mamy dla ciebie świetne rozwiązanie – technologię, która robi AI.” Pytam więc: „To jak jej teraz użyjemy?” „Nie wiem, to ty nam powiedz.” To nie jest ten poziom rozmowy, którego oczekuję podczas rozmowy z kimś, kto chciałby z bankiem technologicznie współpracować. Szukam raczej umiejętności stawiania pytań, bo technologię to zawsze sobie dopasujemy” – mówił Sławomir Soszyński.

Przeczytaj również
Obecnie biznes musi być bliżej IT, które stało się częścią DNA współczesnych organizacji

Trzeci poziom, to są środowiska akademickie. Najważniejszą rzeczą jest odpowiedni poziom edukacji inżynierów, którzy nie tylko będą znali się na technologii, ale też na tym, jak ja zastosować, np. w jakiejś konkretnej firmie, do której się wybierają. „Nieustannie szukam talentów. Najbardziej takich, którzy potrafią zadawać inteligentne pytania. Bank ma mnóstwo danych – dla inteligentnego to gratka” – mówił Sławomir Soszyński.

Kuźnie ludzi nowej ery

Wątek edukacji, zmiany podejścia w kontekście wdrażania AI cieszył się bardzo dużym zainteresowaniem podczas spotkania. Pytaliśmy więc, czy jest szansa na standard przystosowywania ludzi do pracy w środowisku, gdzie ton nadaje AI? Michał Dżoga przekonywał, że na obecnym etapie rozwoju technologii, poszukiwanie standardu jest bezcelowe. „Dzisiaj raczej  trzeba wzbudzić podejście – umiejętność dostosowywania się cały czas. Umiejętności AI oznaczają co innego dla różnych grup wiekowych i profesji” – mówił Michał Dżoga. Aby zilustrować, czym obecna sytuacja rożni się od przeszłości, odniósł się do teorii Schumpetera. „Schumpeter mówił, że na miejsce tych zawodów, które zostaną zlikwidowane w wyniku zmiany, zawsze powstaną nowe a ludzie zdążą się przekwalifikować. Ta teoria nie jest bardzo stara, bo ma sześćdziesiąt lat, ale już przestaje się sprawdzać. Zakres zmian wywołanych AI jest bez precedensu: skokowa degradacja konkurencyjności dotyczy też zaawansowanych profesji: lekarzy, prawników” – mówił Michał Dżoga. Także tempo zmian to znak naszych czasów i nie jest tylko związane z AI: technologie i wszystkie zmiany natychmiast niemal stają się globalne. Ostatni element, to de-lokalizacja, przywiązanie miejsca do pracy zaczyna być bardzo złudne. Umiejętności, których będzie brakowało w jednym miejscu, będą mogły być bardzo szybko uzupełnione z innego. „Czy my jako Polska, jako Europa, będziemy w stanie te umiejętności na tyle szybko wykształcić, żeby nam po prostu nie odpłynęły?” – pytał Michał Dżoga. Jego zdaniem, wcale nie umiejętności cyfrowe są najważniejsze, dlatego błędem są wszelkie polityki i kierunki strategiczne specjalizujące ludzi do poziomu ludzkich robotów. Ludzie muszą znać kontekst, znać organizację, jej procesy, umieć odpowiedzieć i zadać pytania, oczywiście skonceptualizaować wyzwania i koniec końców jego szansę wdrożenia – to może być kształtowane w ramach procesu edukacji.

Czynniki sukcesu strategii AI

W podsumowaniu dyskusji, uczestnicy dzielili się swoją oceną uwarunkowań powodzenia strategii rozwoju AI.

„Zdecydowanie postawiłbym na edukację. Dwa lata temu jako Synerise robiliśmy projekt AI School, który dotyczył przedszkoli i klas 1-3. Ale także – nauczycieli. Na świecie rośnie liczba kursów i programów typu „Teach the teachers”, w ktorych inspirowani są również sami nauczyciele. Mamy bardzo dużo zaległości, ale też bardzo szybko możemy je nadrobić. Nauczyciele matematyki, fizyki, bez problemu będą w stanie podstawy logiki boolowskiej, różnego rodzaju analiz statystycznych, włożyć młodym adeptom AI do głów” – powiedział Jarosław Królewski.

„Warto stawiać na rozwijanie kapitału społecznego definiowanego jako skłonności do współpracy. Polska plasuje się bardzo wysoko w rankingach międzynarodowych kapitał ludzkiego, indywidualnych umiejętności i kompetencji. Natomiast przegrywaliśmy pod względem umiejętności tych indywidualistów i ekspertów do współpracy” – zauważył Michał Pieprzny.

„Do umiejętności współpracy dodałbym jeszcze jeden element, różnorodność, bo najlepsze innowacje, najlepsze rozwiązania tworzy się w różnorodnych środowiskach. Moje doświadczenie z życia i z profesjonalnej kariery, pokazuje, że tam gdzie kultury bardzo mocno się mieszają powstają najfajniejsze rzeczy” – powiedział Sławomir Soszyński.

„Współpraca i wyzyskanie potencjału rynku europejskiego. Mamy ideę, którą udało nam się zuniwersalizować na poziom Unii Europejskiej, czyli budowy europejskiej zaufanej przestrzeni danych, u nas w Polsce nazywamy to Wirtualnymi Składnicami Danych. To koncepcja prawno-organizacyjno-techniczna, która buduje huby dzielenia się danymi” – mówił Robert Kroplewski.

„Z jednej strony, duże strategie, duże polityki, ale z drugiej strony, małe kroki. Nie bać się eksperymentować, nawet z poziomu Państwa.  Program edukacji AI, o którym mówiłem, jest w tej chwili wdrażany w około trzydziestu państwach na świecie i widzę, jak rządy podchodzą naprawdę otwarcie do tego typu kwestii, agile’owo” – dodał Michał Dżoga.

Pointę dyskusji postawił prof. Przemysław Biecek, odwołując się do często goszczącego w dyskusji wątku edukacji: „Powinnyśmy wypracować sposób współżycia pomiędzy gospodarką a akademią, środowisko, w którym do akademii będą dołączali praktycy i uczyli studentów, a z drugiej strony – akademicy będą dołączali do gospodarki. I żeby jedna sfera aktywności nie wykluczała drugiej. Jeśli chcemy zaplanować zrównoważony rozwój, to możliwość uczestniczenia w obu tych światach na pewno przysłuży się, jeśli chodzi o AI – obu stronom”.

Spotkanie CXO HUB „antyHype AI” odbyło się 13 maja 2021. W spotkaniu i dyskusji wzięło udział ponad 50 CXO a partnerami wydarzenia były firmy SAS Institute oraz Intel.

 

Tagi

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *