Debata ITwizSztuczna inteligencjaBiznesPolecane tematy
Jak usystematyzować i uspójnić wysiłki na rozwój AI w Polsce
DEBATA ITWIZ
W grudniu 2024 roku odbyła się debata redakcyjna ITwiz „AI dla Polski”, która zgromadziła przedstawicieli sektora publicznego, naukowego i komercyjnego – firm korzystających i wdrażających algorytmy AI w Polsce. Gościem specjalnym debaty był Dariusz Standerski, wiceminister cyfryzacji. Partnerami zaś firmy Inetum Polska i Hewlett Packard Enterprise Polska.
INWESTYCJE W ROZWÓJ AI W POLSCE
Witam wszystkich na debacie, którą traktuję jako swego rodzaju „konsultacje” dotyczące projektu Ustawy o systemach sztucznej inteligencji. Pierwsze pytanie chciałbym skierować do wiceministra cyfryzacji Dariusza Standerskiego.
Właśnie podpisano umowę na stworzenie Funduszu AI o wartości 1 mld zł. W Radzie Funduszu jest wielu interesariuszy, w tym Ministerstwo Obrony Narodowej. Jakie są priorytety, jeśli chodzi o wydatkowanie tych pieniędzy i czy jednym z nich są wydatki na badania i rozwój rozwiązań opartych o algorytmy sztucznej inteligencji?
Dariusz Standerski, wiceminister, Ministerstwo Cyfryzacji (D.S.): Cieszę się, że nie mówimy już tylko o regulacjach ale też o konkretnych inwestycjach. Po pierwsze, wygląda na to, że Fundusz AI ostatecznie zgromadzi więcej niż 1 mld zł (prawie 4 mld zł – przyp. red.).
Dopiero, kiedy podpisaliśmy porozumienie, zespoły mogły się spotkać w trybie roboczym i otwarcie porozmawiać, jakie mają zasoby i co planują. Wspólne inwestycje to wyzwanie. Instytucje te mają różne kultury organizacyjne. Poznajemy też sposoby finansowania, zasypujemy silosy. Wojsko także inwestuje inaczej niż sektor cywilny. Musimy nauczyć się współpracować.
A co do priorytetów, ok. 200 mln zł z funduszy europejskich na rozwój cyfrowy zostanie przeznaczone na prace nad sztuczną inteligencją. Jesteśmy w kontakcie z Ministerstwem Rozwoju i Technologii, bo chcemy, aby mogły zostać zainwestowane we wdrożenia w polskich przedsiębiorstwach.
Kolejne 20 mln zł trafić ma na powstający instytut badawczy ds. AI – IDEAS. W tym obszarze współpracujemy z Ministerstwem Obrony Narodowej oraz Ministerstwem Nauki i Szkolnictwa wyższego. Chcemy, aby instytut miał dwa działy: cywilny i wojskowy.
Od wielu miesięcy, jeśli nie lat rozmawiamy o tzw. dual use rozwiązań AI. W ostatnim czasie te prace nabrały rozpędu, ponieważ Wojska Obrony Cyberprzestrzeni powołały we wrześniu 2024 roku Centrum Implementacji Sztucznej Inteligencji. Jednocześnie nawiązaliśmy porozumienie z MON w sprawie utworzenia wspólnego instytutu ds. AI. W tej chwili zespół prof. Piotra Sankowskiego planuje jego część badawczą.
Pracujemy także z Bankiem Gospodarstwa Krajowego, którego inwestycje obejmują wsparcie wdrożeń chmurowych dla przedsiębiorstw z Krajowego Planu Odbudowy na kwotę 2,8 mld zł. Jaka część z tych środków zostanie przeznaczona na AI? No nie chcę na razie podawać dokładnych szacunków, ale będzie to co najmniej kilkaset mln zł.
Cały czas zbieramy również informacje dotyczące projektów w NCBiR i NCN. Wiemy, że NCBiR planował wspólny projekt z Ministerstwem Obrony Narodowej m.in. w zakresie sztucznej inteligencji. Także na kwotę kilkuset milionów złotych.
Jestem również po rozmowach z Komisją Europejską, która planuje na 2025 rok kolejne inwestycje w zakresie Fabryk AI. Będziemy pracować nad tym, aby była w Polsce nie jedna, a co najmniej dwie takie placówki. Na ten cel chcemy przeznaczyć ok. 200 mln zł.
Usystematyzowanie i stworzenie spójnego funduszu na rozwój AI to spore wyzwanie. Dotąd też przedsiębiorstwa, instytuty badawcze, czy osoby odpowiedzialne za wdrożenia AI musiały sprostać wymaganiom 15, różnych formularzy. Często z wykluczających się programów – Dariusz Standerski, wiceminister cyfryzacji, Ministerstwo Cyfryzacji.
Jak widzicie, usystematyzowanie i stworzenie spójnego funduszu na rozwój AI to spore wyzwanie. Musimy połączyć polityki co najmniej 9. instytucji. Dotąd też przedsiębiorstwa, instytuty badawcze, czy osoby odpowiedzialne za wdrożenia AI musiały sprostać wymaganiom 15, różnych formularzy. Często z wykluczających się programów. Naszym celem jest to, aby od 2025 roku było to już spójne.
Tomasz Żelski, CIO, Grupa PZU (T.Ż.): Mówimy więc co najmniej o 1 mld zł, które chcemy zainwestować w sztuczną inteligencję i chmurę obliczeniową. Nad Wisłą jest to kwota, która potrafi dużo zmienić. Mam dwa pytania. Jaka jest perspektywa czasowa tych inwestycji? I ile z tego chcemy zainwestować w Polsce, a nie np. w rozwiązania hyperscalerów?
Na przykład w zasoby Cyfronetu.
Marek Magryś, p.o. dyrektora Cyfronet AGH (M.M.): Każdy chętnie widziałby te inwestycje na miejscu, ale bądźmy realistami. Tego typu procesy trwają, są złożone. Zasadnym pytaniem jest w jaki sposób będą realizowane i do kogo ostatecznie trafią te fundusze? Czy polski rynek byłby w ogóle w stanie takie fundusze wchłonąć w dość krótkim czasie.
D.S.: Perspektywa czasowa środków unijnych to roku 2027. Czy to szybko? Tak. To jest wyzwanie, z którym mierzymy się i o tym też już dyskutowaliśmy na spotkaniu założycieli Funduszu AI. Są obszary, w których problemem nie jest wysokość finansowania lecz jego obsługa.
Największym obszarem, w którym mierzymy się z czasem to Krajowy Plan Odbudowy i zaplanowane w nim inwestycje. Gdy przyszliśmy do rządu, mieliśmy już 20 miesięcy opóźnienia w większości z tych inwestycji! A jak wiecie, nie jest tak, że jeśli w tym roku kupimy więcej sprzętu niż w poprzednim, to wszystko się wyrówna.
Po środki unijne z funduszy europejskich na rozwój cyfrowy, czyli wspomniane 200 mln zł, możemy sięgnąć do końca roku 2027. Jednak na wsparcie dla przedsiębiorców – czyli 2,8 mld zł z KPO – mamy czas tylko do 30 czerwca 2026 roku.
A co do tego, do kogo trafią fundusze. Zgodnie z przepisami unijnymi, prawa zamówień publicznych, ustawą wdrożeniową, nie jestem uprawniony do tego, aby wskazać, że będziemy inwestować w konkretne firmy z konkretnym kapitałem. Nie mamy narzędzi, aby rozstrzygać to wyłącznie na korzyść polskich firm.
Kamil Konikiewicz , Director Data&AI, Grupa Allegro (K.K.): Przyłączam się do podziękowań dla Pana Ministra za przedstawienie tego planu. Wspomniał Pan o Fabrykach AI. Co się kryje pod tym pojęciem?
D.S.: To program unijny związany z rozbudową mocy obliczeniowych związanych z AI, które stworzą – w ramach Unii Europejskiej – jedną sieć. Jest to jeden z planów Komisji Europejskiej, który ma być skoordynowany podczas nowej jej kadencji. Obecnie mamy w tym obszarze kilka projektów – poza AI Factories – także European High Performance Computing Joint Undertaking. Wyzwaniem jest, aby to wszystko skoordynować.
WYZWANIA ZWIĄZANE Z BUDOWĄ ROZWIĄZAŃ AI
K.K.: Temat zabezpieczenia mocy obliczeniowych na potrzeby rozwojowe – ale też współpracy sektora prywatnego i publicznego – jest kluczowy. Już teraz, a jesteśmy na relatywnie wczesnym etapie popularyzacji tej technologii, jako organizacja komercyjna musimy się czasem ustawiać w kolejce po zasoby AI z innymi podmiotami, również spoza Unii Europejskiej.
Temat zabezpieczenia mocy obliczeniowych na potrzeby rozwojowe jest kluczowy. Już teraz, a jesteśmy na relatywnie wczesnym etapie popularyzacji tej technologii, jako organizacja komercyjna musimy się czasem ustawiać w kolejce po zasoby AI – Kamil Konikiewicz, Director Data&AI, Grupa Allegro.
Może to być pewnego rodzaju bloker w przyszłości, gdy z powodów infrastrukturalnych nie będziemy mogli skalować aplikacji opartych na sztucznej inteligencji. Jest to też ważny element, który może stać się katalizatorem współpracy pomiędzy sektorem publicznym i prywatnym. Widzę tu potencjał na działania na styku przedsiębiorstw komercyjnych oraz centrów R&D.
Kolejny ważny dziś problem to drenaż talentów. Czy w związku ze znaczącym eksportem naszych specjalistów planowane są działania związane z popularyzacją i adopcją nowych technologii, w tym AI, przez nowe pokolenia? Wydaje mi się, że możemy się przyłożyć do tego, by podaż talentów była na poziomie zapewniającym innowacyjność i rozwój, nawet mimo “podbierania” naszych ekspertów przez zagraniczne firmy . Czy prowadzimy lub planujemy działania aktywizujące, które nie tylko pozwoliłyby nam sprawniej prowadzić działania badawczo-rozwojowe, ale też popularyzatorskie. Działania, które dodatkowo ułatwiłyby wdrożenia w lepiej wyedukowanym społeczeństwie?
Sebastian Kondracki, Founder, SpeakLeash; Chief Innovation Officer, Deviniti (S.K.): Jest duży zasób dobrych polskich inżynierów i warto by go wykorzystać jak najlepiej. Do tego potrzeba jednak nie tylko kompetencji, ale też motywacji i inspiracji.
D.S.: Mam do was inne pytanie. Czy w strategii zwiększania mocy obliczeniowych w dłuższej perspektywie powinniśmy kłaść nacisk na: rozszerzanie istniejących ośrodków czy też tworzenie nowych? A jeżeli nowych, to czy dedykowanych do konkretnego obszaru, czy też każdy z nich powinien być zdywersyfikowany jeżeli chodzi o swoją ofertę?
Kolejne pytanie to, w których miejscach powinny znajdować się Fabryki AI? Bo dla mnie np. dużym zaskoczeniem było, że nie mamy dużego środka komputerów dużej mocy w Warszawie, gdzie znajduje się większość firm AI w Polsce.
M.M.: Czuję się wywołany do odpowiedzi ze względu na Cyfronet AGH. Jeśli dobrze wszystko pójdzie, to właśnie u nas powinna pojawić się pierwsza Fabryka AI w Polsce. Te ośrodki istnieją w Polsce od kilkudziesięciu lat i przez większość swojego istnienia skoncentrowane były przede wszystkim na wspieraniu środowiska naukowego.
Czy potrzebujemy większych mocy obliczeniowych? Na pewno! Ale nie są one warunkiem wystarczającym do tego, aby osiągnąć sukces. Potrzebujemy równolegle prowadzić innowacyjne prace badawczo-rozwojowe. Potrzebujemy rozwoju kompetencji, utrzymania kadr i metod ich zatrzymania.
W naszej organizacji to argument przeciwko zbyt dużemu rozproszeniu kompetencji. Wydaje mi się, że to będzie trudne do realizacji, jeżeli nie zajdą rozwiązania systemowe. Dotyczą m.in. zmian w zakresie utrzymania kompetencji zarówno w nauce, jak i w administracji.
Myślę, że wszyscy mamy podobne problemy. Konkurencja ze strony biznesu jest ogromna. Utrzymanie kompetencji w obszarze AI jest bardzo trudne. Potrzebujemy zidentyfikować strategiczne obszary i w nich zintensyfikować finansowanie, zbudować wizję długoterminowego rozwoju. GPU to GPU, nada się do wszystkiego. Jako państwo powinniśmy określić, które obszary dla nas są najbardziej atrakcyjne, w których mamy największą szansę odnieść sukces, które są dla nas najbardziej istotne.
Z doświadczenia HPE wynika, że na Zachodzie sukces odnoszą te ośrodki inwestujące w duże moce obliczeniowe, wokół których powstają też programy łączące startupy, biznes i edukację. Tak stało się w Essen, kiedy taką inicjatywę uruchomił Uniwersytet Duisburg-Essen – Magdalena Kasiewicz, Director of Cloud Services Sales, HPE.
Może jest to medycyna, technologie militarne, albo obszar procesu produkcyjnego, w którym mamy szansę jeszcze konkurować z innymi krajami. Te kompetencje pewnie mogłyby być budowane w postaci rozproszonej sieci instytutów badawczych już istniejących albo nowych.
Może rozwiązaniem jest rozszerzenie działalności podobnych ośrodków, stworzenie ich bardziej przekrojowych. A może powinniśmy centralizować moc obliczeniową na tyle, na ile będzie nas na to stać. Pamiętajmy też, że superkomputery dużej mocy zyskują na skali. Cokolwiek nie postanowimy, potrzebujemy rozsądnej centralizacji.
W Warszawie działa Interdyscyplinarne Centrum Modelowania Matematycznego przy Uniwersytecie Warszawskim. Ma spore sukcesy. Prowadzili modelowanie rozwoju pandemii Covid-19. Prowadzą prace nad prognozą pogody. W Polsce jednak przez kilkanaście lat jedyne środki, które przeznaczono na rozwój mocy obliczeniowych, to fundusze strukturalne, z których Warszawa bardzo szybko przestała móc korzystać.
M.M.: Niedługo ten problem będzie dotyczył też Krakowa, Poznania, Śląska. Tych rozwiniętych regionów w Polsce będzie coraz więcej. Dlatego musimy patrzeć na budowę całego ekosystemu w co najmniej kilkuletniej perspektywie.
Gdy rozmawiamy z kolegami z centrów obliczeniowych na Zachodzie, dowiadujemy się, że planują inwestycje w perspektywie 5-7 lat. My rozmawiamy teraz o sprincie do 2027 roku. Oczywiście rozumiem obecne uwarunkowania. Ale może jesteśmy w stanie przynajmniej wyobrazić sobie jakąś ścieżkę biegnącą dalej w przyszłość.
Powinniśmy szukać finansowania tej wizji i lobbować w Komisji Europejskiej.
DŁUGOTERMINOWE PLANOWANIE FINANSOWANIA INNOWACJI
D.S.: Jeżeli mogę odnieść się do finansowania. To jest ćwiczenie do wykonania na poziomie, nie tylko Unii Europejskiej. Problemem jest to, że polskie państwo też nie wykonywało dotychczas tego ćwiczenia. Nie podejmowaliśmy tego zadania przez 30 lat.
Jedyne planowanie, jeżeli chodzi o finanse publiczne w rządzie, mamy na rok następny i dwa kolejne. Dotyczy to czegokolwiek, np. opłacania prądu w Ministerstwie Cyfryzacji. Nikt mnie nie pyta i nikt nie planuje, co się stanie z publicznym pieniądzem w roku 2028 i w latach kolejnych. Dotyczy to nie tylko nowych technologii, ale wszystkich wydatków. W tym obszarze wyzwanie jest ogromne.
T.Ż.: Strategie, które powstają nie są odpowiedzią na takie podejście.
D.S.: Jedyne co możemy zrobić, to uchwalić plany wieloletnie, które mogą obowiązywać przez 5-6 lat. Jednak muszą dotyczyć konkretnego projektu. Trudno jednak zaplanować coś w kontekście sztucznej inteligencji, co miałoby zostać zrealizowane do roku 2032. Trudno wyobrazić sobie, co konkretnie powinniśmy sfinansować, aby wpisać to w tabelki w Excelu.
Jeśli chodzi o środki unijne, to oczywiście musimy rozmawiać z KE. Nie poznałem jeszcze nowej wiceprzewodniczącej Henny Virkkunen. Nie wiem więc, jakie ma priorytety. Będziemy też rozmawiać o priorytetach Polski w czasie prezydencji. Klarują się też priorytety Danii na II półrocze roku 2025. Zaczyna też myśleć o nich Cypr na I półrocze roku 2026. I to na razie koniec.
Jeśli dobrze wszystko pójdzie, to właśnie u nas powinna pojawić się pierwsza Fabryka AI w Polsce. Te ośrodki istnieją w Polsce od kilkudziesięciu lat i przez większość swojego istnienia skoncentrowane były przede wszystkim na wspieraniu środowiska naukowego – Marek Magryś, p.o. dyrektora, Cyfronet AGH.
Jeśli chodzi o kompetencje, to jest dyskusja też o tym, jaki udział powinno mieć państwo w tym w tym zakresie. Rozmawiamy o tym z Ministerstwem Edukacji. Na wyższych etapach edukacji rola państwa polega na zapewnianiu podaży na badania. Nie zatrudnimy wszystkich.
Trzeba wiec zachęcić prywatny sektor do inwestycji. Musimy planować odpowiedzialnie wdrożenia sztucznej inteligencji, bo najgorzej będzie, kiedy przedsiębiorstwa zaczną płytko wdrażać rozwiązania, zobaczą, że nie dają im zysków i odejdą od zaawansowanych rozwiązań albo kupią abonament na jeden z łatwych, skalowalnych platform. I na tym się skończy.
REGULACJE WSPIERAJĄCE I BLOKUJĄCE
T.Ż.: Moje doświadczenie z punktu widzenia pracy w PZU wskazuje, że regulacje nas nie wspierają. Jako organizacja spełniamy oczywiście wszystkie wymogi, ale nie są to rzeczy, które ułatwiają nam prowadzenie biznesu.
Z obawą patrzę na AI Act. Gdy go opublikowano, rozgorzała dosyć gorąca dyskusja w mediach społecznościowych, że to kolejne, policyjne podejście do wdrożenia opierające się na systemie kar. Moim zdaniem powinniśmy się skupić na przyszłości i swobodzie innowacji.
Wracając do tematu drenaży talentów, niezależnie od tego, jak bardzo będziemy chcieli zatrzymać naszych studentów w Polsce i ile moc obliczeniowej będziemy posiadać, na niewiele może się to zdać. W Stanach Zjednoczonych mają ogromną swobodę działania. Jeśli chcą coś zrobić, to robią, a później zastanawiają się nad regulacjami. W Polsce, w Unii projekty zaczynamy od spotkania z prawnikami.
K.K.: Którzy zresztą często są sparaliżowani w swoich działaniach presją regulacyjną.
Leszek Bukowski, Chief AI Officer, vetapp (L.B.): Padło tu kilka bardzo istotnych rzeczy. Pan Minister powiedział, że Polska w zasadzie od 30 lat nie zajmowała się długoterminowym planowaniem. Powiedzmy sobie szczerze, żyjemy w Europie, która w obszarze nowych technologii przespała ostatnie 30 lat.
W przypadku takich państw jak Polska, czasami określanych mianem średnich, w pełni się zgadzam, że zapewnienie mocy obliczeniowej jest warunkiem koniecznym, ale niewystarczającym do tego, aby poradzić sobie z największym problemem, który mamy. A jest nim fakt, że jesteśmy gigantem w sprzedaży… usług. Nasi specjaliści są światowej klasy, ale pracują na rzecz zachodnich firm, które budują własne produkty i marki. Nasi specjaliści budują więc PKB innych krajów.
Moim zdaniem nie powinniśmy myśleć o naszych zasobach obliczeniowych w kontekście budowy oferty konkurencyjnej dla hyperscalerów. To jest w perspektywie kilku lat niemożliwe. Zamiast tego pomyślmy o niszy, którą Polska mogłaby zagospodarować. Nasza firma uważa, że jest nią weterynaria. To jest – jak mówi się w start-up’ach – w skali całego świata tzw. Blue Ocean. To jest obszar, który przez informatyzację został dotknięty w minimalnym stopniu, tym bardziej w AI.
Pomyślmy o tych branżach, w których polska gospodarka jest zacofana względem bardziej rozwiniętych. Potraktujmy ich rozwój jako naszą szansę. Są nimi np. rolnictwo czy leśnictwo.
W USA prowadzony jest np. program Manhattan 2.0. Nieoficjalnie to jest wielkie przymierze firm technologicznych z Doliny Krzemowej z rządem Stanów Zjednoczonych. Przykładowo Anthropic i Palantir Technologies – we współpracy z AWS – podpisali z amerykańskim rządem kontrakt na korzystanie z dużych modeli Claude 3 i 3.5 do analizy zdjęć wywiadowczych.
W bankowości mieliśmy czas, kiedy mogliśmy eksperymentować z różnymi modelami, dyskutować, uczyć się. Ale teraz decydenci oczekują mierzalnych rezultatów i narzędzi dostarczających konkretny zwrot z inwestycji. Mówią: „słuchajcie, ktoś musi za to zapłacić” – Anna Stepanów, AI & Analytics Product Owner / AI Lead, BNP Paribas Bank Polska.
Magdalena Kasiewicz, dyrektorka ds. sprzedaży usług chmurowych, Hewlett Packard Enterprise (M.K.): Budowanie takich ekosystemów jest bardzo ważne. Z doświadczenia HPE wynika, że na Zachodzie sukces odnoszą te ośrodki inwestujące w duże moce obliczeniowe, wokół których powstają też programy łączące startupy, biznes i edukację. Tak stało się w Essen, kiedy taką inicjatywę uruchomił Uniwersytet Duisburg-Essen. W rezultacie do tego miasta „ściągają” talenty i zbierają się w tym samym miejscu. To jest rezultat, który powinniśmy chcieć osiągnąć.
W Stanach Zjednoczonych także miałam okazję obserwować tego typu programy, poświęcone konkretnym obszarom tematycznym. Wydaje się, że efektywniej jest dać przestrzeń i jednocześnie zbudować system governance wokół tego typu społeczności. W rezultacie młodzi ludzie sami przychodzą z pomysłami. To może być skuteczniejsze niż narzucone z góry „parametry sukcesu”. Moim zdaniem rolą państwa jest raczej otwieranie możliwości, a nie regulowanie, jak ma to wyglądać.
Myślę też, że inwestycje w nowe, duże moce obliczeniowe również powinny zostać scentralizowane. Rosnącym trendem jest edge computing, czyli przenoszenie procesu przetwarzania danych bliżej miejsca, gdzie te dane powstają i są przechowywane. Od strony infrastrukturalnej jest to zupełnie inne rozwiązanie.
Pomyślmy o niszach, w które zainwestujemy. Nawet jeśli Polska nie zostanie numerem jeden, to trafi do czołówki i stanie się średnim państwem niezbędnym w całym łańcuchu dostaw. Przykładem może być holenderski ASML. Bez ich rozwiązań do produkcji układów scalonych w zasadzie cała współczesna technologia obliczeniowa nie byłaby możliwa. W ten sposób zakotwiczyli się w kluczowym łańcuchu dostaw.
PROBLEM Z DOSTĘPEM DO DANYCH TRENINGOWYCH
S.K.: Zgadzam się z Leszkiem w 100%! Nawet jeśli będziemy mieć najcudowniejsze, cyfrowe rozwiązania, to brakuje inicjatyw otwierających dane, o których jeszcze nie rozmawialiśmy. W teorii, Polska w rankingach otwartych danych wypada bardzo dobrze.
Jeśli spojrzymy na dane gov.pl, gdzie jest ok. 41 tys. ich źródeł, to okaże się, że wśród nich nie ma ani jednego, który pozwoliłby przeprowadzić szkolenie z klasyfikacji, albo regresji. Nie ma żadnych danych, które moglibyśmy wykorzystać w AI. Nie ma żadnych danych tekstowych, na których moglibyśmy trenować nasze modele, nie mówiąc o obrazach.
Poszukiwanie niszy bez analizy danych nie ruszą. Potrzebujemy Data Management sprzyjającego rozwojowi technologii. Choć rozumiem, że w tym zakresie konieczne są regulacje…
Geoportal nie ma otwartych danych? Tam jest masa zdjęć Polski.
M.M.: Ale czy są one oznaczone? Aby takie modele mogły powstawać, potrzebujemy opisanych danych. Na poziomie europejskim jest w świecie naukowym ciekawa inicjatywa – European Open Science Cloud. Jej celem jest m.in. otwieranie zbiorów danych. Próbując wdrażać tę koncepcję w Polsce widzimy ogromną barierę mentalną po stronie naukowców.
Naukowcy traktują dane jako swoją własność. Nie docierają do nich argumenty, że gdy udostępnią swoje dane, to w rewanżu będą mogli korzystać z innych. To się zmieni, ale potrzeba czasu na zmianę mentalności. Warto by było tego nie przeregulować.
T.Ż.: Może dobrym rozwiązanie byłaby sytuacja, w której, naukowcy dostają granty na projekty pod warunkiem zgody na udostępnianie danych?
Z obawą patrzę na AI Act. Gdy go opublikowano, rozgorzała dosyć gorąca dyskusja w mediach społecznościowych, że to kolejne, policyjne podejście do wdrożenia opierające się na systemie kar. Moim zdaniem powinniśmy się skupić na przyszłości i swobodzie innowacji – Tomasz Żelski, CIO, Grupa PZU.
M.M.: Rozmawiamy właśnie o tym m.in. z Narodowym Centrum Nauki. Wszystkie granty, finansowane przez NCN muszą w efekcie skończyć się otwartym zbiorem danych. Są jednak problemy z ich definicjami. W przypadku nauk ścisłych to jest dość proste. Jak wejdziemy w nauki społeczne, to już się staje bardziej skomplikowane. W przypadku weterynarii i medycyny wchodzimy z kolei w obszar danych regulowanych.
S.K.: Robiłem badania na temat publikacji grantowych i dotacyjnych, w których coś musiało zostać opublikowane na otwartej licencji. Prawo co prawda zobowiązuje do udostępniania danych, ale robione jest to bez żadnych instrukcji, aby ktoś czasem ich nie wykorzystał.
Brakuje też synergii biznesu i nauki. Za granicą to jest normalne. Większa część osób zaangażowana w
SpeakLeash pochodzi z tzw. biznesu. Dobrze, że powstają konsorcja dużych modeli językowych. Jednak powinny one służyć biznesowi, bo on go będzie używał.
K.K.: Ze wspieraniem badań rozwojowych wewnątrz organizacji też jest różnie. Niejednokrotnie byłem świadkiem sytuacji, w której były kasowane inicjatywy dążące do złożenia wniosku do NCBiR. Powód? Zwrot z inwestycji jest niepewny i będzie trwał zbyt długo. Wiele firm ma tu spory potencjał do poprawy.
L.B.: Gdy pisaliśmy pewien wniosek i konsultowaliśmy go z różnymi firmami, wiecie, co nam powiedziały? Nie piszcie przypadkiem, że tworzycie zbiór danych, bo dla nich to nie będzie nowa wiedza. Odpowiadałem: ale gdybyśmy np. wytworzyli zbiór danych, który potrafiłby zbenchmarkować różne modele to przecież byłaby ogromna, nowa wartość!
Niestety urzędnicy często po prostu tego nie rozumieją. Dla nich wytworzenie pewnego zbioru danych to nie będzie nowa wiedza. Jeżeli więc chodzi o pozyskiwanie pieniędzy z takich programów na tego typu projekty, to trzeba byłoby zastanowić, czy nie zmienić warunków rozstrzygania konkursów.
T.Ż.: Nie jestem przekonany czy takie stanowisko wynika z braku zrozumienia przez urzędników. Gdybyśmy uznali, że sam zbiór danych jest już innowacją, nagle okazałoby się, że mamy 50 mln zbiorów danych, z których niestety nic nie wynika.
L.B.: Prawdopodobnie większość z nich okazałaby się bezużyteczna. Tylko pamiętajmy, że każdy proces innowacyjny polega na tym, że dajemy pewną piaskownicę do eksperymentów. My się musimy pogodzić z tym, że część z pieniędzy zostanie „przepalona”.
Tymczasem pisząc taki projekt muszę przewidzieć, jakim wynikiem się zakończy za trzy lata. Ale może ja w połowie projektu zmienię technologię, bo obszar AI tak szybko się dziś zmienia.
K.K.: Czy mierzymy w ogóle kaloryczność informacyjną i przydatność danych, które są publikowane. Na przykład liczbą cytowań czy odwołań?
Jeśli spojrzymy na dane gov.pl, gdzie jest ok. 41 tys. ich źródeł, to okaże się, że wśród nich nie ma ani jednego, który pozwoliłby przeprowadzić szkolenie z klasyfikacji, albo regresji. Nie ma żadnych danych, które moglibyśmy wykorzystać w AI – Sebastian Kondracki, Founder, SpeakLeash; Chief Innovation Officer, Deviniti.
M.M.: Większość zmian w ogóle nie jest zabezpieczona długoterminowo. To też jest problem, że zgodnie z takimi zapisami, dane wytworzone na potrzeby grantu muszą być dostępne co najmniej 5 lat po zakończeniu projekty. Jak jest „fajny” zespół, to przez 5 lat faktycznie są dostępne. W Polsce jest coraz więcej tego typu przypadków, ale wciąż większość danych po prostu wyparowuje.
Zresztą nie wiadomo, kto miałby płacić za utrzymanie tych zbiorów danych. W niektórych dziedzinach to są setki terabajtów. Na potrzeby AI trzeba by je udostępniać na zewnątrz, co oznacza, że musiałyby być umieszczone na publicznym serwerze. To ogromne koszty, które systemowo gdzieś muszą się znajdować i nie ginąć po drodze.
K.K.: Może powinny za to płacić firmy, które będą korzystały z tych danych?
MM: Być może.
STRATEGICZNE KIERUNKI ROZWOJU DLA POLSKI
Piotr Mechliński, Head of AI & Data EEMEA, Inetum Polska (P.M.): To świetnie, że w końcu wydajemy konkretne pieniądze na rozwój sztucznej inteligencji. Jeśli popatrzymy na to w skali, to ten 1 mld zł, czyli ok. 250 mln USD, wystarczy pewnie w Microsofcie czy w Google na trzy-cztery dni robocze. Albo na 20 km autostrady. Dlatego uważam, że powinniśmy skoncentrować ten budżet na jednym obszarze, np. na zastosowaniu AI w cyberbezpieczeństwie.
Miliard wydaje się dużą liczbą, ale jeśli podzielimy go na wiele projektów, a trzeba zadowolić wielu interesariuszy, to już nie robi tak dużego wrażenia. Warto więc powiedzieć sobie, że „nie zbudujemy konkurencji dla OpenAI, Microsoftu czy Google”.
Wiemy jak kończą się takie „romantyczne” projekty związane z próbą osiągnięcia suwerenność w elektromobilności czy chmurze obliczeniowej. Koniec końców projekty są realizowane platformach amerykańskich czy chińskich dostawców lub wcale.
Myślenie o tym, jak powinna wyglądać Polska w perspektywie następnych lat to coś czego bardzo potrzebujemy w wielu wymiarach. Nie chodzi o strategię „wizerunkową” napisaną przez kilku profesorów. Potrzebujemy poważnej debaty, bo AI gruntownie zmieni nasz świat.
MM: 1 mld zł to ogromna suma, choć w sektorze AI możliwości wydawania funduszy są nieograniczone. Finlandia ma superkomputer LUMI, który jest najszybszym superkomputerem w Europie. Sama Finlandia wyłożyła na ten cel 240 mln euro, czyli właśnie 1 mld zł, a mówimy o 1. inwestycji, o 1. superkomputerze, który pewnie nie rozwiązuje żadnego problemu.
Trzeba więc nasze środki wydać mądrze. Pieniądze są tylko jednym z zasobów, które państwo ma. Innymi są dane publiczne, regulacje czy sposób funkcjonowania systemu innowacyjności. NCBiR daje pieniądze startupom na rozwój mocy obliczeniowej. Może powinniśmy im zamiast tego oferować godziny w polskich centrach obliczeniowych?
Jeśli startup dostaje 1 mln zł dofinansowania i ma kupić komercyjne GPU, to nie wystarczy mu na wiele. Jeżeli dajemy mu zasoby obliczeniowe z puli krajowej, to jednocześnie opłacimy koszty amortyzacji i energii elektrycznej niezbędne do ich utrzymania. W efekcie będziemy, jako kraj, mieli dużo większą szansę na sukces. Jednocześnie też rozwijamy lokalne kompetencje.
Myślenie o tym, jak powinna wyglądać Polska w perspektywie następnych lat to coś czego bardzo potrzebujemy w wielu wymiarach. Nie chodzi o strategię „wizerunkową” napisaną przez kilku profesorów. Potrzebujemy poważnej debaty, bo AI gruntownie zmieni nasz świat – Piotr Mechliński, Head of AI & Data EEMEA, Inetum Polska.
K.K.: Dokładnie! Jak dziś wygląda utylizacja „państwowych” zasobów obliczeniowych? Miała zostać udostępniona sektorowi rozwojowemu.
MM: Każdy nowy superkomputer, który do nas trafia, jest pełen w 6 miesięcy. Przy tym teraz jesteśmy w unikalnej sytuacji, ponieważ jednocześnie pojawiły się dwie takie maszyny. W przypadku GPU zainteresowanie jest ogromne wśród MŚP. Większość kontaktów kończy się podpisaniem jakiejś umowy. Natomiast dużym obciążeniem dla nas jest weryfikacja wniosków i możliwości współpracy. Szukamy tutaj sprawniejszych procedur.
M.K.: Dziś na świecie zamawianych jest bardzo dużo superkomputerów. Zapotrzebowanie jest ogromne. Mówię o projektach o skali setek milionów euro każdy. Jeden z naszych klientów zamawia w tej chwili dwa dodatkowe takie systemy. Inwestycje te związane są zarówno z projektami badawczo-rozwojowymi, jak i w zakresie obronności. Te ostatnie to bardzo duże projekty. W USA jest także wiele programów, w ramach których uniwersytety wykorzystują fundusze na moc obliczeniową.
To, co na pewno się zmieniło w Polsce – i muszę powiedzieć, że naprawdę robimy duże postępy, jeśli chodzi o te programy – to fakt, że zaczęliśmy wreszcie „utylizować” współpracę z Unią Europejską w ramach EuroHPC. Mówimy tutaj o ok. trzech centrach przetwarzania danych, które powstaną w ramach tego dużego projektu do roku 2027.
Problem polega na tym, że te data center są projektowane na dzisiejsze potrzeby. Tymczasem wiemy, że technologie związane z AI, które się szykują na następny rok albo na kolejny, będą już zupełnie innymi technologiami. To duże wyzwanie. Okazuje się też, że projekty tego typu mogą „wyłożyć” się także na tak prostych problemach, jak np. dostęp do energii.
Dlatego mam poczucie uciekającego czasu. Musimy działać szybko, zadbać o fundamenty, czyli moce obliczeniowe, ale jednocześnie pamiętać o tym, że dopiero w przyszłości okaże się, w jaki sposób je wykorzystamy.
L.B.: Jak wiemy, że przez ostatnie 30 lat Dolina Krzemowa i armia rozwijały się zupełnie niezależnie od siebie. Ale to się zmienia. W najświeższym naborze do akceleratora startupów Y-Combinator pojawia firma, która buduje tanie rakiety średniego zasięgu. Absolutnie otwarcie mówi, że rozwija je na potrzeby ewentualnej wojny na Morzu Południowo-Chińskim pomiędzy Chinami i Tajwanem.
Jeżeli państwo mówi o tym, jakie ma problemy, to młodzi ludzie słuchają. Interesują się tym tematem i szukają potencjalnych rozwiązań. Pojawiła się więc grupa, która zaczęła testować pomysł, jak te rakiety wyprodukować 10 razy taniej.
Zaproponowałbym, aby stworzyć takie bloki edukacyjne w niszach, o których mówimy i tym samym nakierowywać młodych ludzi na obszary, które nas interesują.
PRZEJŚCIE OD BADAŃ DO KOMERCJALIZACJI
Anna Stepanów AI & Analytics Product Owner / AI Lead, BNP Paribas Bank Polska (A.S.): W bankowości mieliśmy czas, kiedy mogliśmy eksperymentować z różnymi modelami, dyskutować, uczyć się. Mieliśmy okazję eksplorować różne możliwości AI. Ale teraz decydenci oczekują mierzalnych rezultatów i narzędzi dostarczających konkretny zwrot z inwestycji. Mówią: „słuchajcie, ktoś musi za to zapłacić”.
Pomyślmy o tych branżach, w których polska gospodarka jest zacofana względem bardziej rozwiniętych. Potraktujmy ich rozwój jako naszą szansę. Są nimi np. rolnictwo czy leśnictwo. Nasza firma uważa, że jest nią weterynaria. To jest – w skali świata – tzw. Blue Ocean – Leszek Bukowski, Chief AI Officer, vetapp.
Tymczasem AI to nie jest tania technologia. Jej rozwój kosztuje. Wciąż występuje też luka kompetencyjna, jeśli chodzi o kompetencje łączące wiedzę Data Science ze rozumieniem biznesowym. Nie walczymy wyłącznie o specjalistów Data Science ale również potrzebujemy specjalistów po stronie biznesu rozumiejących możliwości i ograniczenia AI.
Etap od dema do wdrożenia produkcyjnego AI jest najtrudniejszy. Najważniejsze są w nim dojrzałość rozwiązania i mierzenie adopcji oraz wartości z rozwiązania. W przypadku rozwiązań AI nie jest jednak zawsze tak prosto to obliczyć. Pojawia się pytanie, czy potraktować wdrożenie AI tak, jak każdy, inny projekt inwestycyjny czy może jednak trochę inaczej, bo działamy w nie do końca „rozpoznanym” środowisku.
K.K.: Jest potężny problem z szacowaniem zysków związanych z produktywnością zwiększaną dzięki narzędziom GenAI, szczególnie w przypadku tzw. białych kołnierzyków. Jeszcze kilka lat temu było dużo łatwiej policzyć zysk z usprawnienia funkcjonowania contact center czy poprawy procesów w logistyce. Przeliczano to po prostu na konkretne etaty. W przypadku zaawansowanych rozwiązań AI, jest to praca o dużym charakterze zmienności. To jest zupełnie inne wyzwanie.
T.Ż.: Skoro przeszliśmy z powrotem do biznesu, mam dwa wnioski. Po pierwsze, powinniśmy przestać mierzyć Business Case’y liczbą „zwolnionych osób”. W perspektywie 5-10 lat będzie nam brakowało paru milionów pracowników. Druga rzecz, na którą chciałbym zwrócić uwagę wiąże się z doświadczeniami jakie mamy w PZU z modelami AI, uczeniem maszynowym i przygotowaniem danych.
Nawet jeśli dzisiaj dana technologia, z której korzystamy, wydaje się posiadać ogromny potencjał, inwestujemy w nią czas, pieniądze i mamy ciekawe „efekty biznesowe”, to często okazuje się, że po 12 miesiącach rozwiązanie to stało się tzw. commodity. My już teraz wymieniamy wypracowane wewnętrznie modele na rzeczy, które dostarczają nam startupy. Mamy do wyboru kilka rozwiązań, dzięki którym możemy osiągnąć nasze cele.
Z punktu widzenia biznesu powinniśmy mieć dostęp do gotowych rozwiązań „z pudełka”, nawet jeśli będziemy musieli na nie poczekać 6 miesięcy, bo to się opłaca. Nie będziemy więc inwestować zasobów w tworzenie własnego rozwiązania, weźmiemy gotowy produkt, który niedługo pojawi się na rynku. Po prostu podepniemy rozwiązanie do naszego środowiska IT i zadzieje się cyfrowa magia.
Potrzebujemy „pudełek”, aby wpinać je w procesy biznesowe, by osiągać efekty synergii. Z drugiej strony potrzebujemy inwestować w ośrodki naukowe, które będą oferowały nam coraz to nowsze i lepsze „pudełka”.
Nikt mnie nie pyta i nikt nie planuje, co się stanie z publicznym pieniądzem w roku 2028 i w latach kolejnych. Dotyczy to nie tylko nowych technologii, ale wszystkich wydatków. W tym obszarze wyzwanie jest ogromne – Dariusz Standerski.
M.K.: Jestem mentorką w programie dla licealistów. Jedna dziewczyna chodzi do szkoły muzycznej i rozwija własny startup. Tworzy aplikację Straight, która ma pomóc siedzieć przy komputerze prosto dzięki przesyłanym nam alertom. Ta dziewczyna ma mnóstwo pomysłów, to tylko przykład. Znam wielu młodych ludzi, którzy są zaangażowani i chętnie pracują nad projektami społecznymi.
T.Ż.: Rozmawiamy o budowaniu konkurencyjności w Polsce. Mamy też ciekawe projekty realizowane przez Polaków za granicą, jak np. ElevenLabs. To zespół ludzi, którzy ciężką pracą stworzyli globalne rozwiązania, a ich firmę uznano za jednorożca. Jestem jednak przekonany, że za 2-3 lata to, co dziś oferują, nie będzie niczym nadzwyczajnym. I to jest kłopot. Ich unikalności wynika z tego, że byli pierwsi. Za chwilę to, co dostarczają stanie się commodity.
Czasy się zmieniły. Gdy zacząłem pracować w IT, aktualizacje oprogramowania wychodziły co 8 lat. W tej chwili co 12 miesięcy. W przypadku sztucznej inteligencji nie jesteśmy już w stanie zarejestrować tych zmian, tak szybko się dokonują. A przyrost będzie jeszcze szybszy.
M.M.: Jeszcze 20 lat temu, gdybyśmy rozmawiali o superkomputerach i budowie mocy obliczeniowej, to siedziałyby tu trzy osoby. Mielibyśmy powyciągane swetry. Obecnie najszybszy superkomputer Europie jest przemysłowy, nie naukowy. Włoska firma używa go do poszukiwania złóż naturalnych.
To jest szeroko rozumiane commodity. Przez dekady jednak superkomputery były czymś egzotycznym. Teraz każdy z nas z nich korzysta, np. do generowania dzieciom bajek w ChatGPT. Więc rynek na pewno się zmienia i to jest ta ogromna szansa dla Polski. Mamy nie tylko duże ambicje, ale też możliwości adopcji.
A.S.: W wielu organizacjach pojawia się wyzwanie, jak zwiększyć adopcję, jak wyskalować istniejące już rozwiązania. Same rozwiązania są często dostępne. Znamy ich również potencjalne zastosowania. Aby jednak odnieść korzyści skali potrzebna jest faktyczna adopcja. To ona generuje prawdziwą wartość.
L.B.: To jest jeden z problemów, o którym ostatnio też rozmawiałem.
Prawdą jest też to, że w perspektywie nadchodzących lat takich firm, jak ElevenLabs pojawi się więcej i ich rozwiązanie nie będzie już unikalne. Bardzo możliwe, że któryś z gigantów kupi tę firmę. Zastanówmy się jednak co by było gdyby oni rozwijali się w Polsce, za polski kapitał? Każdy z nich stałby się znającym się na technologii miliarderem i on by inwestował dalej w technologie, nie w beton, a w nowoczesne rozwiązania. I to zapewne w Polsce.
Utrzymanie kompetencji w obszarze AI jest bardzo trudne. Potrzebujemy zidentyfikować strategiczne obszary i w nich zintensyfikować finansowanie, zbudować wizję długoterminowego rozwoju – Marek Magryś.
Trochę tak jest, że technologia przyciąga technologię. Weźmy np. tzw. mafię PayPal. Sam produkt to już stara technologia. Ważniejsze jest to, jak założyciele tej firmy przysłużyli się później rozwojowi Doliny Krzemowej. Elon Musk jest jednym z członków tej „mafii”. W ten sposób trzeba myśleć o rozwoju.
T.Ż.: To, co mówisz, łączy się z tym, co powiedziałem wcześniej. Uważam, że w biznesie nie powinniśmy odtwarzać tego, co jest commodity, tylko korzystać z tego, co dostępne. Powinniśmy inwestować w unikalne rozwiązania i rozwijać się po to, aby później tworzyć właśnie takie centra kompetencji.
S.K.: Gdy wypuściliśmy Bielika w wersji 2.0, czyli z licencją komercyjną, pojawiła się masa pytań. Współpracujemy chyba ze wszystkimi bankami, które wdrażają, testują i weryfikują AI. Mamy do czynienia z szybką absorbcją naszego rozwiązania. Nie spodziewaliśmy się aż takiego sukcesu. Choć nie pojawiła się jednocześnie żadna, polska firma technologiczna z propozycją inwestycji w nas.
ROZWÓJ AI W POLSCE ATRAKCYJNIEJSZY NIŻ W GLOBALNYCH FIRMACH
K.K.: W ostatnich kilku miesiącach miałem co najmniej dwie rozmowy z kolegami lub znajomymi znajomych, którzy pytają o możliwość dołączenia do polskiej firmy. Mają już dosyć pracy w jakimś satelickim biurze globalnej korporacji, gdzie to, co przygotowują, ląduje w organizacyjnej próżni.
Wydaje mi się, że to kawałek kapitału, na którym powinniśmy się skupić. Widzę rosnącą chęć budowania wartościowych rzeczy w Polsce. Brakuje platformy, gdzie połączymy tych ludzi ze sobą w formie hackathonu, spotkania czy inkubatora.
L.B.: Od jakiegoś czasu bardzo dużo jest u nas w dyskusji na temat tego, że Polska może stać się krajem takim, jak zachodnie kraje europejskie. Młodzi ludzie tego słuchają i myślę, że to jest jeden z powodów, że zastanowią się, czy chcą się zatrudnić w międzynarodowej korporacji.
Niedawno byłem, na jednej z największych w Polsce konferencji Data Science i rozmawiałem z bardzo młodym chłopakiem, który wygrał konkurs na programowanie kwantowe gry w szachy. Zapytałem go czym się zajmuje? Nie mam pracy. Ale jak to? Rozmawiałeś z obecnymi tu firmami? Tak, ale one wszystkie mnie pytają, czy umiem obsługiwać chmurę. Mówię mu, wygrałeś wczoraj konkurs. Nauczysz się tego w ciągu miesiąca.
Etap od dema do wdrożenia produkcyjnego AI jest najtrudniejszy. Najważniejsze są w nim dojrzałość rozwiązania i mierzenie adopcji oraz wartości z rozwiązania. W przypadku rozwiązań AI nie jest jednak zawsze tak prosto to obliczyć – Anna Stepanów.
Niestety te firmy tak patrzą na potencjalnych kandydatów. Dostali polecenie, że muszą to być firmy, które zbudują pipeline.
M.K.: Jestem mentorką w programie dla licealistów. Jedna dziewczyna chodzi do szkoły muzycznej i rozwija własny startup. Tworzy aplikację Straight, która ma pomóc siedzieć przy komputerze prosto dzięki przesyłanym nam alertom. Ta dziewczyna ma mnóstwo pomysłów, to tylko przykład. Znam wielu młodych ludzi, którzy są zaangażowani i chętnie pracują nad projektami społecznymi.
Jestem za tym, aby stworzyć ekosystem, który połączy ludzi z doświadczeniem i zasobami z młodymi, twórczymi osobami. Róbmy hackathony. Ci ludzie są tak chętni do tego, aby rozwiązać zadany im problem. Chętnie działają, co ciekawe coraz częściej nie dla siebie, a dla Polski. Choć wciąż bardzo dużo utalentowanych osób wyjeżdża albo pracuje z Polski dla zagranicznych firm.
SUWERENNOŚĆ CYFROWA I KONKURENCYJNOŚĆ EUROPY
P.M.: Czym według Was miałaby być suwerenność cyfrowa w Polsce, w Europie? Wydaje mi się, że każdy z nas to pewnie inaczej rozumie.
T.Ż.: Powinniśmy spojrzeć na to z dwóch perspektyw. Przez ostatnie 30 lat żyliśmy w dosyć stabilnym środowisku, które właśnie rozsypało się jak domek z kart.
Jako Polska nie wygramy na świecie, zwyczajnie jesteśmy za małym krajem. Jako Europa na pewno jednak możemy pozwolić sobie na to, aby stworzyć konkurenta dla dużych, amerykańskich koncernów.
Od 2015 roku jest realizowany projekt europejskiego procesora. Wchodzi on w fazę prototypów i ich testowania. Jak wyjdzie? Nie wiem. Ale moim zdaniem powinniśmy w to dalej inwestować.
Kolejnym ważnym, w kontekście europejskiej techno-suwerenności, tematem powinna być europejska chmura. Bez tego daleko nie „zajedziemy”. Dzisiaj liczymy głównie na rozwiązania z USA. Wystarczy jednak przeciąć kilka kabli i tracimy do nich.
To, co na pewno się zmieniło w Polsce – i muszę powiedzieć, że naprawdę robimy duże postępy – to fakt, że zaczęliśmy wreszcie „utylizować” współpracę w ramach EuroHPC. Mówimy tutaj o ok. 3 centrach danych, które powstaną w ramach tego projektu do 2027 roku – Magdalena Kasiewicz.
M.M.: Jako beneficjent programu budowy europejskiej chmury powiem, że to się nie uda. Nie uda się jeżeli to Komisja Europejska będzie ją tworzyła. W Europie za wszelką cenę staramy się zbudować konkurencyjny rynek, na którym pozwalamy konkurować firmom amerykańskim, do których z UE wypływa rzeka pieniędzy. Jeżeli podobnej rzeki nie stworzymy dla europejskich firm to nie mamy szans w tym „starciu”.
L.B.: Wprowadzenie AI Act to trochę tak, jakbyśmy chcieli fizykę uregulować albo biologię. Tego się nie da. Tam faktycznie są wskazane systemy, które np. mówią o tym, że nie mogą istnieć w Europie, np. takie które będą wykorzystywały niepełnosprawność. Tylko zauważcie, to nie ma nic wspólnego z AI. Trzeba stworzyć bufor chroniący przedsiębiorców przed niejasnościami aktu. Dążymy do tego, aby w Polsce powstała ustawa, która wesprze rozwój.
D.S.: A brał Pan udział w konsultacjach publicznych tej ustawy?
L.B.: Bardzo dużo wypowiadałem się na temat tej ustawy.
D.S.: W konsultacjach publicznych nie ma wymogu, aby pisać, że trzeba zmienić artykuł 5., a skreślić 52. Można np. przekleić to, co się pisze w mediach społecznościowych i wysłać. Wystarczą dwa kliknięcia.
Dlatego zapytałem Pana, bo pańska opinia nie znalazła się w konsultacjach publicznych. Z kolei Konfederacja Lewiatan w swojej opinii wniosła o skreślenie z Ustawy o systemach sztucznej inteligencji wszystkich przepisów wspierających przedsiębiorców. Wszystkich! Choć i tak było ich tam niewiele, w tym np. o skreślcie wspierania ich dostępem do mocy obliczeniowych.
Lewiatan zawnioskował, aby skreślić je wszystkie. Zrobił to w formalnych konsultacjach publicznych, z których muszę się „spowiadać”. A do każdej uwagi muszę odnieść się i wysłać tę informację do Komitetu Rady Ministrów. Tymczasem brakuje mi w ramach konsultacji społecznych uwag dotyczących wspierania przedsiębiorców. I to jest dla mnie problem.
Świetnie, że w końcu wydajemy konkretne pieniądze na rozwój sztucznej inteligencji. Jeśli popatrzymy na to w skali, to ten 1 mld zł, czyli ok. 250 mln USD, wystarczy pewnie w Microsofcie czy w Google na trzy-cztery dni robocze. Albo na 20 km autostrady. Dlatego uważam, że powinniśmy skoncentrować ten budżet na jednym obszarze, np. na zastosowaniu AI w cyberbezpieczeństwie – Piotr Mechliński.
L.B.: Najważniejsze moim zdaniem jest domniemanie niewinności przedsiębiorcy. Tymczasem w polskiej implementacji AI Act mamy zapis o tym, że jeżeli urzędnik podejmuje decyzję, a ma jednocześnie ogromne uprawnienia, to kontrola może oznaczać koniec jego funkcjonowania. Jednocześnie nie jest tam wskazana odpowiedzialność urzędnika. A co jeśli okaże się, że kontrola była bezzasadna?
M.K.: Wydaje mi się, że najważniejsze jest dochowanie należytej staranności w prowadzeniu projektów AI, a nie ostateczny efekt. Będziemy uczyć się na błędach, które na pewno będą się pojawiać, ale to, że coś źle zadziałało, nie powinno być automatycznie powodem do nałożenia kary. Do tych praktyk trzeba będzie dostosowywać regulacje.
K.K.: Z moich dotychczasowych doświadczeń wynika, że w wielu przypadkach regulacji dotyczących danych czy modeli ML, kluczowa jest klauzula należytej staranności. Natomiast jest ona mieczem obosiecznym. Z jednej strony pozostawia wentyl bezpieczeństwa, aby się w razie czego wytłumaczyć regulatorowi, ale z drugiej strony jest bardzo mglista i daje ogromne pole do interpretacji, a zatem i niepewności prawnikom.
IMPLEMENTACJA AI ACT W POLSCE
S.K.: Pracowałem przy pierwszej wersji AI Act. Rozrysowałem sobie pierwszą wersję, w formie grafu. Przeanalizowałem i wysłałem ok. 300 komentarzy. Nie dostałem żadnej odpowiedzi. Kiedy zaś pojawił się GenAI wszystkie projekty zostały wyrzucone do kosza i prace rozpoczęto od nowa. A ja się poddałem mając nadzieję, że polska implementacja będzie inna.
Z naszego punktu widzenia – a mówię jako SpeakLeash, dostawcy modelu fundamentalnego -AI Act to tak, jakby w przypadku firm budowlanych uregulować dostęp do piasku czy pustaków i wskazywać tylko te jedne, właściwe.
Warto przy tym pamiętać, że wszystkie modele LLM opierają się na scrapingu, podczas gdy nie ma żadnych regulacji z nim związanych. Implementacja AI Act w Polsce powinna dać nam właśnie dostęp do tych pustaków. Brakuje też inicjatywy które pozwolą nam je kupić. Uruchommy produkcję pustaków, żebyśmy my jako firmy budowlane mogli spokojnie je wykorzystywać.
Kiedy 30 lat temu zakładałem firmę to najbardziej bałem się Urzędów Skarbowych. Wszystko się przez te lata zmieniło. Ale teraz jakby trochę wraca.
W USA prowadzony jest program Manhattan 2.0. Jest przymierze firm technologicznych z Doliny Krzemowej z rządem USA. Przykładowo Anthropic i Palantir – we współpracy z AWS – podpisali rządowy kontrakt na korzystanie z dużych modeli do analizy zdjęć wywiadowczych – Leszek Bukowski.
D.S.: Pierwszy projekt ustawy nie oznacza, że w takiej formie zostanie uchwalona przez Sejm. Treść w oczywisty sposób się zmieni. Pewne jest, że procedura zostanie uproszczona. Nie będzie żadnych kontroli w miejscu prowadzenia biznesu. Nie będzie żadnego udostępniania przestrzeni dla kontrolerów.
S.K.: Państwo ma trochę pustaków na składzie w Ministerstwie Edukacji czy Ministerstwie Kultury i Dziedzictwa Narodowego. Z kolei rozwój rozwiązań AI podlega Ministerstwie Cyfryzacji.
D.S.: Powstaje jednak nowelizacja ustawy o informatyzacji. Jej celem jest to, aby Ministerstwo Cyfryzacji mogło koordynować procesy, o których mówimy. W tej chwili dopiero wychodzimy z Komisji Wspólnej Rządu i Samorządów, i idziemy na pozostałe komitety rządowe. Dojść do porozumienia nie będzie łatwo, bo mówimy o rozdziale kompetencji. A mamy do czynienia z 30-letnią praktyką.
W kontekście rozwoju AI działamy w trybie ekspresowym od 11 miesięcy. Planujemy inwestycje i wydatkowanie. Celem jest maksymalne zwiększenie popytu na usługi i rozwiązania AI. Jednak w pewnym momencie rola państwa się kończy. To przedsiębiorcy będą ostatecznie decydować, czy skorzystają z danego rozwiązania.
M.K.: Polskie społeczeństwo jest bardzo hierarchiczne. Wszyscy patrzą do góry, zamiast się zastanowić, co oni sami mogą zrobić. Mamy problem z indywidualną odpowiedzialnością.
Niestety pozycja rządu i sytuacja, w której się znalazł jest bardzo trudna, biorąc pod uwagę kulturowe uwarunkowania oraz ogromne oczekiwania biznesu i społeczeństwa wobec nadchodzącej rewolucji AI.
Z klientami staram zastanowić się nad tym, co mogą zrobić jako pierwszy krok. Na pewno przydałoby się wsparcie w interpretacji prawa.
D.S.: W projekcie ustawy zawarliśmy pomysł stworzenia strony internetowej, na której – w oparciu o profil działalności przedsiębiorcy – będzie mógł on sprawdzić, czy jest w jurysdykcji AI Act czy nie.
Od lat rozmawiamy o tzw. dual use rozwiązań AI. W ostatnim czasie te prace nabrały rozpędu. Wojska Obrony Cyberprzestrzeni powołały Centrum Implementacji AI. Nawiązaliśmy też porozumienie z MON w sprawie utworzenia wspólnego instytutu IDEAS – Dariusz Standerski.
T.Ż.: Jako ubezpieczyciela obejmują nas różnego rodzaju regulacje. Często bardziej precyzujące odpowiedzi jeszcze bardziej ograniczały nasze działania. Kolejne interpretacje – krok po kroku – często uniemożliwiają działania. Zwyczajnie wolałbym, aby każdy dokonywał ich na własną rękę – to oczywiście wiąże się z dodatkowym ryzykiem i być może sprawą w sądzie. Innowacje niosą ze sobą ryzyko. To może być lepsze rozwiązanie niż jednostronna decyzja urzędnika.
Dajmy sobie możliwość spierania się w sądzie. Jeżeli urzędnik w ramach wykonywania obowiązków wynikających z AI Act będzie chciał nałożyć kontrolę, to niech to nie kończy się, „na wszelki wypadek” zamknięciem całej firmy. Kontrola powinna być przyjazna, z domniemaniem niewinności przedsiębiorcy.
D.S.: Ale problem będzie taki, że przy nowym wdrożeniu przedsiębiorcy nie będą wiedzieć, jak to zostanie później zinterpretowane. Będą czekać na nowelizację ustawy, która pojawi się za 10 miesięcy…
T.Ż.: 15 lat temu trzeba było mieć zaświadczenie na wszystko. Teraz wystarczy oświadczenie. Jeśli skłamałem, to poniosę konsekwencje. To zmiana kulturowa, potrzebna również w biznesie. Jak rynek zacznie robić „złe rzeczy”, wtedy państwo wkroczy z regulacjami.
L.B.: Mówiliśmy o Bieliku. Myślę, że osoby, które go tworzą powinni mieć głowy wolne od lęku przed regulacjami. Każdy, kto się zajmuje uczeniem maszynowym wie, że mamy kilkaset tysięcy tzw. modeli fundamentalnych. Dodatkowo powstają ich mutacje. Ja sobie nie wyobrażam jakby można ująć to środowisko w jednym prawie. Trzeba by każdy z takich modeli przebadać pod względem danych, na których został wytrenowany. Ustawa powinna być zbudowana tak, aby sprawiała jak najmniej problemu.
K.K.: Czy przypadkiem nie demonizujemy tego tematu? Przypomnijcie sobie, jak wyglądał temat RODO. Powstała osobna gałąź biznesu związana ze wspieraniem firmy w przygotowaniach do tej regulacji. I chyba nie było takiej katastrofy, jakiej się spodziewaliśmy.
D.S.: W jednej z gazet został opublikowany artykuł o tym, że Ustawa o systemach sztucznej inteligencji daje tylne drzwi dla służb specjalnych do śledzenia i uzyskiwania nowych informacji. Sugerowano, że zrobiliśmy to specjalnie.
Naukowcy traktują dane jako swoją własność. Nie docierają do nich argumenty, że gdy udostępnią swoje dane, to w rewanżu będą mogli korzystać z innych. To się zmieni, ale potrzeba czasu na zmianę mentalności. Warto by było tego nie przeregulować- Marek Magryś.
Zaniepokoiłem się tym artykułem i sprawdziłem, o który przepis chodzi. Okazało się, że akurat ten skopiowaliśmy z ustawy o ochronie danych osobowych. Przenieśliśmy go w całości nie zmieniając ani słowa. Jeśli chodzi o kontrolę to nie tworzymy żadnego, nowego elementu. Ale ponieważ ustawa dotyczy AI, to budzi niepokój i media doszukują się sensacji.
K.K.: Kiedy się patrzy się na piramidę poziomów ryzyka związanych z wdrażaniem różnych klas systemów AI, to prawo powinno przede wszystkim regulować jej górną część, czyli zastosowania wysokiego czy bardzo wysokiego ryzyka. Ustawa powinna odcinać patologiczne przypadki, np. śledzenia przestrzeni publicznej w celu tworzenia scoringu obywateli czy generowania nierówności. Na niższych poziomach piramidy spodziewałbym się, że prawo będzie praktycznie nieinwazyjne i będzie wspierało innowacyjność.
D.S.: Al Act nie będzie obowiązywał na niższych poziomach.
K.K.: Dozoru nie będzie, ale będą oczekiwania co do dokumentowania czy raportowania wdrożeń algorytmów AI. Najlepiej by było, gdybyśmy zminimalizowali biurokrację związaną z ryzykiem na niższych poziomach piramidy i skupili się na zapobieganiu ekstremom.
T.Ż.: Jest poziom zasad, które jako obywatel chciałbym, aby były przestrzegane przez każdego, kto tworzy i stosuje sztuczną inteligencję. Chcę, by prawo mnie chroniło przed złymi i nieetycznymi metodami wykorzystania AI.
Z drugiej strony jako obywatel chciałbym móc korzystać ze sztucznej inteligencji. Bardzo mnie denerwuje to, że w iPhone nie będę mógł korzystać z pewnych funkcjonalności Apple Intelligence. Jako przedsiębiorca nie będę miał szans konkurować z firmami z USA.
Trzeba znaleźć złoty środek. Prawo musi być skuteczne i możliwe do wyegzekwowania. Jeśli wszystkim każemy jeździć w mieście 35 km na godzinę, to i tak nikt nie będzie się do tego stosował, jeżeli nie będzie skutecznej egzekucji.
W wielu organizacjach pojawia się wyzwanie, jak zwiększyć adopcję, jak wyskalować istniejące już rozwiązania. Same rozwiązania są często dostępne. Znamy ich również potencjalne zastosowania. Aby jednak odnieść korzyści skali potrzebna jest faktyczna adopcja. To ona generuje prawdziwą wartość – Anna Stepanów.
L.B.: Jeden ze scenariuszy mówi, że stanie się to kolejnym, martwym prawem. Ja też tak uważam ze względu na postęp technologiczny. Tylko zauważcie, ile mimo to nam wszystkim przy tym stole napsuło krwi. W społeczeństwie powstaje „ferment” wśród przedsiębiorców.
Stan Kalifornia chce wprowadzić podobne przepisy do tych w Unii Europejskiej. Jednak tam mają dobrą zasadę – regulujmy zastosowania, nie regulujmy technologii.
S.K.: W UE jeśli jedziesz nowoczesnym samochodem to nie są regulowane wewnętrzne algorytmy AI, od których zależy bezpieczeństwo pasażerów. Ale za to regulowana jest reklama tego samochodu, która musi zostać oznaczona, że została wygenerowana przez AI.
Tymczasem Meta wycofuje się z Europy ze swoim, oferowanym multimodalnym modelem LLM. Pozostaną nam więc tylko chiński na licencji open source, z których możemy skorzystać. W przypadku Bielika zaczynamy pracować nad multimodalem. Wydaje się, że trochę blokujemy europejskich twórców modeli z powodu braku dostępu do najlepszej technologii.
D.S.: Dlatego Polska oczekuje od Komisji Europejskiej w czasie prezydencji jednego, jedynego dokumentu. Tym dokumentem jest strategia inwestycji w AI. Problemem jest nie to, że mamy regulacje, ale to że mamy je i nic więcej.