CDOSztuczna inteligencjaPolecane tematy
6 kluczowych projektów AI dla Polski – rekomendacje ekspertów GRAI
Eksperci Grupy Roboczej ds. Sztucznej Inteligencji (GRAI) przygotowali dokument stanowiący rekomendację dla „Polityki rozwoju sztucznej inteligencji w Polsce w latach 2025-2030” autorstwa Ministerstwa Cyfryzacji. Wśród wskazanych w nim strategicznych celów, kluczowych obszarów czy głównych zadań do realizowania polityki sztucznej inteligencji, specjaliści zidentyfikowali także sześć projektów AI o największym potencjale i znaczeniu dla sukcesu krajowej gospodarki, a także korzyściach dla społeczeństwa.
Eksperci GRAI rekomendują poddanie wspomnianych sześciu projektów AI pod dyskusje społeczne. Uważają także, iż należałoby przeprowadzić pogłębione analizy i badania w celu podjęcia finalnej decyzji o ich wyborze oraz realizacji przez państwo w ramach Priorytetowych Projektów AI. Poniżej prezentujemy propozycje tych projektów.
1. Małe specjalistyczne modele językowe (specjalistyczne SLM)
Duże modele językowe (ang. Large Language Models – LLM) oparte na architekturze Transformera – takie jak ChatGPT czy Claude – osiągają bardzo wysoką jakość działania, jednak wymagają do tego olbrzymich zasobów, zarówno danych treningowych jak i mocy obliczeniowych. Eksperci GRAI przewidują, że w najbliższych latach wysiłki badawcze czołowych ośrodków na świecie będą skupione na tworzeniu nowych architektur, które pozwolą na uzyskanie mniejszych modeli (tzw. SLM). Mają one przewyższyć swą jakością działania obecnie istniejące architektury. Pewne postępy w tej dziedzinie już są – np. modele MAMBA. Jednocześnie wiadomo już, że powstające obecnie modele LLM wyraźnie różnią się jakością w różnych rodzajach zadań (np. wnioskowanie czy wyszukiwanie informacji) i nie do końca wiadomo jakie czynniki na to wpływają, ponieważ szczegóły trenowania tych modeli są zwykle ukryte. Wiadomo jednak na pewno, że określone kompetencje modelu są niezbędne dla rozwiązania konkretnych problemów – np. umiejętność wnioskowania dla celów analizy dokumentów prawnych.
Propozycja specjalistów GRAI dotyczy zainicjowania oraz konsekwentnego prowadzenia programu badań podstawowych, które miałyby na celu stworzenie nowych architektur, o znacznie mniejszych wymaganiach dotyczących zasobów oraz o określonych wyspecjalizowanych zdolnościach, takich jak wnioskowanie. Co szczególnie istotne, propozycja ta nie dotyczy trenowania mniejszych lub douczanych wersji istniejących modeli, a także trenowania polskich wersji istniejących modeli. Chodzi tu o modele Bielik czy PLLuM. Jest to bowiem projekt nowatorskich badań nad nowymi architekturami modeli – eksperci GRAI określili je jako „następny Transformer”.
Jak wskazują specjaliści, projekt ten wymaga konsekwentnie prowadzonego programu badań podstawowych, rozpisanych na co najmniej 5 lat i realizowanych w istniejącej jednostce (np. IDEAS NCBiR czy uczelnie) lub nowej jednostce. “Ze względu na fakt, że będą to eksperymentalne badania podstawowe, nie należy nastawiać się na gwarantowany zysk z inwestycji. Jest to projekt z kategorii “moonshot” – zysk nie jest gwarantowany, ale jeśli się uda, może być bardzo duży. Szanse sukcesu zwiększa natomiast dobra baza dostępnych naukowców i inżynierów AI w Polsce” – uważają eksperci.
Wpływ na rozwój kraju
- Zapotrzebowanie na AI będzie ciągle istniało i rosło. Sztuczna inteligencja nie jest przemijającą modą a technologią, która odmienia praktycznie wszystkie gałęzie gospodarki. Jakość dostępnego AI będzie przekładała się na jakość działania kraju.
- Niezależność własności intelektualnej – pomysł prowadzi do stworzenia własnych architektur potencjalnie hostowanych na własnej infrastrukturze. Obecnie dostęp do najlepszych modeli odbywa się za pomocą API, a dane wysyłane są zwykle do USA (np. bezpośrednio poprzez API OpenAI) lub przetwarzane w wybranych miejscach na świecie przez amerykańskich dostawców (np. dostęp do usług OpenAI w ramach Microsoft Azure). Usługi takie mogą być w każdej chwili wyłączone lub ceny mogą być dowolnie zmienione. Nawet licencje modeli open source są stopniowo zawężane (niedawny przypadek modeli Mistral) i możliwe, że niedługo nie będą dostępne do wielu zastosowań lub staną się zamknięte i płatne. Podobny problem dotyczy danych. Są i będą mocno chronione przez swoich właścicieli i coraz trudniejsze będzie ich niskokosztowe pozyskiwanie. Konieczne więc będzie zbieranie własnych korpusów.
• W razie sukcesu, dostęp do lepszych jakościowo i bardziej optymalnych kosztowo modeli niż inne kraje. Tworzenie w ten sposób przewagi konkurencyjnej dla przedsiębiorstw i uczelni lokowanych w Polsce. - Potencjał monetyzacji modeli w różnych rodzajach modeli biznesowych, np. subskrypcje.
- Ze względu na małe rozmiary modele takie będą mogły być powszechnie używane na urządzeniach elektronicznych, co zabezpiecza dane (będą mogły zostać przetworzone bezpośrednio na urządzeniu, nie będzie potrzeby wysyłania do przetworzenia).
- Trenowanie i użycie małych modeli będzie kosztowało znacznie mniej, co wpłynie zarówno na użytkowników (biznes, instytucje naukowe) oraz na zmniejszenie emisji środowiskowych.
- Nawet jeśli główny cel nie zostanie osiągnięty, członkowie GRAI szacują, że projekt będzie miał dobroczynny wpływ na rozwój Polski (np. nastąpi silne przyciąganie talentów) i potencjalnie zostanie sformułowany oraz osiągnięty jakiś inny, jeszcze nie przewidziany ambitny cel dotyczący rozwoju AI.
2. Bezpieczne AI
Istotne jest, aby systemy sztucznej inteligencji działy w sposób niezawodny, odporny na zakłócenia oraz minimalizując ryzyko błędnych, nieprzewidywalnych decyzji. “Kluczowe jest prowadzenie badań i tworzenie rozwiązań, aby identyfikować, minimalizować i naprawiać potencjalne błędy oraz niezamierzone skutki działania AI. Ryzyka związane z AI to nie tylko możliwość popełniania błędu, ale także potencjalne nadużycia związane z masowo gromadzonymi danymi na temat osób. Zagrożenia te często nie są dostrzegane przez użytkowników. Z drugiej strony, brak zaufania do systemów AI nierzadko blokuje implementacje dobrze rozwiniętych technologii”, wskazują eksperci GRAI.
Polska ma potencjał by stać światowym się liderem standardów i rozwiązań o najwyższej jakości i niezawodności. Szczególnie w kontekście AI Act, którego implementacja wydaje się zadaniem bardzo trudnym w zderzeniu z realiami technologicznymi i dynamicznie zmieniającymi się warunkami.
Obecnie w Polsce działa sieć zespołów badawczych prowadzących badania w obszarze Transparentnej, Bezpiecznej i Wyjaśnialnej Sztucznej Inteligencji. Budując na tych silnych zespołach badawczych możemy szybko uzyskać przewagę konkurencyjną i markę producenta Bezpiecznego AI, uważają członkowie GRAI. Dodają, że istotne jest, by systemy sztucznej inteligencji działy w sposób niezawodny, odporny na zakłócenia oraz minimalizując ryzyko błędnych, nieprzewidywalnych decyzji. Kluczowe jest prowadzenie badań i tworzenie rozwiązań, aby identyfikować, minimalizować i naprawiać potencjalne błędy oraz niezamierzone skutki działania AI.
“Polska ma potencjał by stać się liderem standardów i rozwiązań o najwyższej jakości i niezawodności. Jednocześnie odporne na zakłócenia i skuteczne AI może być stosowane w zagadnieniach obronności, dla bezpieczeństwa i tzw ,,dual use”. Z uwagi na sytuacje geopolityczną powinniśmy być liderem tworzenia, wykorzystywania i eksportowania rozwiązań wykorzystujących AI do wzmocnienia bezpieczeństwa obywateli” – podkreślają eksperci.
3. Procesor o niskim poborze mocy
Trzeci rekomendowany projekt dotyczy wytworzenia wydajnego energetycznie procesora dedykowanego dla obliczeń sztucznej inteligencji. Jego celem jest zaprojektowanie, wyprodukowanie i wprowadzenie na rynki globalne rodziny wydajnych energetycznie procesorów (i/lub akceleratorów sprzętowych) dedykowanych dla obliczeń AI. Jak wskazują eksperci, projekt miałby zostać zrealizowany w trzech etapach.
- Po analizach aktualnego stanu badań oraz ocenie potencjału wytwórczego w Polsce wybrana zostałaby technologia wytworzenia. Przykładowe opcje to procesory neuromorficzne, nanotechnologie – w tym nanorurki węglowe, grafen czy memrystory – oraz optoelektronika.
- W oparciu o zewnętrzne zasoby produkcyjne, wytworzony i przetestowany byłby prototyp procesora.
- Powstałaby w Polsce fabryka, która wytworzyłaby pierwsze partie w produkcji masowej. Uruchomiono by także procesy wprowadzenia rozwiązania na rynki globalne.
Całość uzupełniłby rozwój kadr badawczych i rozwojowych w obszarze tworzenia oprogramowania umożliwiającego wykorzystanie pełnego potencjału tych technologii.
Uzasadniając ten pomysł, członkowie GRAI wskazują, że konsumpcja energii przez systemy AI jest poważnym problemem, bo wiąże się z dużymi kosztami – zarówno ekonomicznymi, jak i środowiskowymi. “W efekcie rośne zapotrzebowanie na efektywne energetycznie obliczenia AI, szczególnie w zastosowaniach brzegowych (autonomiczne pojazdy, przemysł 4.0, inteligentne miasta etc.). Wydajne energetycznie procesy mogą być kluczowym elementem infrastruktury umożliwiającej uruchamianie specjalizowanych, małych modeli językowych na urządzeniach końcowych (ang. edge devices) – co jest postrzegane jako jeden z kluczowych trendów rozwoju AI. Inicjatywa ta umożliwić ma rozwój zarówno zdolności wytwarzania procesorów, jak i dedykowanego, specjalistycznego oprogramowania. Zintegruje też środowiska nauki, gospodarki i sektora publicznego” – wskazują specjaliści.
4. Struktury wieloagentowe
Celem projektu są badania i wdrożenia struktur wieloagentowych wykorzystujących wspomniane już specjalizowane, małe modele językowe. Systemy takie, integrując możliwości modeli językowych i innych systemów informatycznych, umożliwiają rozwiązywanie złożonych problemów często bez konieczności odwoływania się do dużych systemów AI dostępnych najczęściej w chmurach obliczeniowych. W efekcie są możliwe do uruchamiania na urządzeniach brzegowych (ang. Edge Computing) oraz końcowych (ang. AI on Device), zaś ich “inteligencja” jest efektem ich optymalnej konfiguracji – wskazują eksperci GRAI.
Zastosowania takich struktur są bardzo szerokie: od platform komunikacji pomiędzy podmiotami (B2B, B2C, B2G), przez inteligentne floty dronów, Przemysł 4.0, po systemy ekspertowe w medycynie. Realizacja tego projektu umożliwi rozwój kadr badawczych i rozwojowych w obszarze tworzenia oprogramowania (architektury struktur wieloagentowych, specjalizowane małe modele językowe itd.), jak i infrastruktury.
Jak uzasadniają specjaliści, rynek dużych modeli językowych jest bardzo konkurencyjny, nieprzewidywalny i ryzykowny nawet w długim horyzoncie czasowym. Rekomendowany projekt umożliwia natomiast rozwój kluczowych kompetencji w obszarach o istotnie niższym ryzyku, większym potencjale aplikacyjnym i wykorzystujących najnowsze odkrycia w “dużych” modelach. “Działanie ma duży potencjał zarówno aplikacyjny, jak i w obszarze badań podstawowych (np. dynamika zachowań dużych wspólnot agentów). Działanie ma potencjalnie duże efekty synergiczne z pozostałymi projektami, zwłaszcza niskoenergetycznymi procesorami” – podkreślają członkowie GRAI.
5. Federacyjna Sieć Danych dla AI
Chodzi o stworzenie krajowej, rozproszonej infrastruktury do bezpiecznego gromadzenia, przetwarzania i udostępniania danych na potrzeby rozwoju AI. Ze szczególnym uwzględnieniem danych medycznych, żywieniowo-rolnych, a także przemysłowych. System taki miałby łączyć zalety przetwarzania brzegowego (Edge Computing) z centralnymi repozytoriami danych, tworząc alternatywę dla dominujących rozwiązań chmurowych. Kluczowym elementem byłaby federacyjna architektura umożliwiająca zachowanie kontroli nad danymi wrażliwymi przy jednoczesnym ich wykorzystaniu m.in. do trenowania modeli AI. W tym sensie infrastruktura stanowiłaby zaufaną przestrzeń danych.
“System będzie umożliwiał zarówno udostępnianie danych podmiotom publicznym, jak komercyjnym, w zależności od przeznaczenia, zakresu danych i celu ich wykorzystania na zasadzie wzajemności. Ponadto będzie zawierał framework (narzędzia i mechanizmy) klasy data trust, który będzie pozwalał na zarządzanie danymi z uwzględnieniem wsparcia „data governance” i „AI governance” oraz komercyjne udostępnianie jakościowych danych (small data)” – wskazują członkowie GRAI.
Dodają również, że projekt uwzględnia zaangażowanie zaawansowanych technologii chroniących informacje wrażliwe, takich jak Privacy Enhanced Technologies (PETs), które umożliwiają dzielenie się zarówno danymi ze sfery prywatnej, tajemnicami handlowymi lub własnością intelektualną. Ale na zasadach wzajemności, poszanowania kontroli korzystania z tych praw oraz z zapewnieniem mechanizmów anonimizacji danych.
Według ekspertów GRAI, Polska ma szansę stać się pionierem w budowie bezpiecznej, rozproszonej infrastruktury danych, szczególnie istotnej w kontekście danych medycznych i innych wrażliwych zbiorów. Rozwiązanie to odpowiada na rosnące zapotrzebowanie na lokalne przetwarzanie danych (AI on Edge) przy jednoczesnym zachowaniu korzyści skali oferowanych przez centra danych. Projekt ten integruje kluczowe trendy technologiczne: Edge Computing, federacyjne uczenie maszynowe oraz bezpieczne przetwarzanie danych wrażliwych.
6. AI w medycynie
Celem ostatniego projektu jest implementacja systemów sztucznej inteligencji do usprawnienia wybranego
obszaru opieki zdrowotnej. Pierwszym, kluczowym etapem wdrożenia będzie wybór istotnego społecznie problemu (np. diagnostyka nowotworów, chorób układu krążenia czy cukrzycy; dostęp do terapii; dostęp do leków) oraz miar sukcesu wdrożenia (np. skrócenie czasu, zwiększenie liczby, etc.). Na kolejnym etapie zaprojektowany zostanie portfel projektów wykorzystujących metody i techniki AI, które mogą przyczynić się do realizacji planowanych rezultatów. Na koniec, projekty zostaną wdrożone tak, by osiągnąć planowane rezultaty (określone przez opracowane wcześniej miary sukcesu). Jak wskazują członkowie GRAI, realizacja tak skonstruowanego przedsięwzięcia pozwoli nie tylko na opracowanie nowych technologii, ale przede wszystkim wypracować dobre praktyki w obszarze ich praktycznej implementacji.
Obszar opieki zdrowotnej jest kluczowy dla Polski, a wykorzystanie AI do jego usprawnienia będzie miało zapewne duży oddźwięk społeczny, wskazują eksperci. Dodają, że o powodzeniu tego przedsięwzięcia stanowić będzie osiągnięcie kluczowych wskaźników sukcesu w obszarze opieki zdrowotnej. “Pozwoli to na opracowanie nie tylko zaawansowanych rozwiązań wykorzystujących AI w zdrowiu, ale też – jeśli nie przede wszystkim – wypracowanie dobrych praktyk w zakresie praktycznej implementacji takich rozwiązań i oceny efektów jej działania. Dobre praktyki wypracowane podczas realizacji projektu mogą być podstawą dla globalizacji takich rozwiązań” – podsumowują eksperci GRAI.