Sztuczna inteligencjaPolecane tematy

Rząd udostępnia polski model językowy PLLuM

Ministerstwo Cyfryzacji zaprezentowało polski model językowy PLLuM oraz plan jego rozwoju. Od dziś model dostępny jest dla każdego. PLLuM (Polish Large Language Model) to rodzina modeli sztucznej inteligencji, która pozwala przetwarzać i generować teksty w języku polskim. 

Rząd udostępnia polski model językowy PLLuM

Modele stworzone przez polskich ekspertów i ekspertki z dziedziny IT i lingwistyki, mają wesprzeć rozwój kompetencji cyfrowych oraz innowacje w administracji publicznej i biznesie. Członkami konsorcjum PLLuM są: Politechnika Wrocławska, NASK, Instytut Podstaw Matematyki PAN, Ośrodek Przetwarzania Informacji – Państwowy Instytut Badawczy, Uniwersytet Łódzki i Instytut Slawistyki Polskiej Akademii Nauk.

Projekt realizowany jest na zlecenie Ministerstwa Cyfryzacji, które jest właścicielem wyników i kontroluje rozwój PLLuM.

Kolejne inwestycje w duże, polskie modele językowe LLM

Jednocześnie ogłoszono, że projekt PLLuM zostaje przekształcony w projekt HIVE zmierzający do budowy ekosystemu polskich modeli językowych. Zostanie też zwiększone finansowanie tego projektu. W 2024 roku na rozwój PLLuM przekazano 14,5 mln zł. W tym będzie to 19 mln zł. Liderem konsorcjum IVE zostaje Ośrodek Badań nad Bezpieczeństwem SI w NASK. Dołączają też do niego Centralny Ośrodek Informatyki oraz Akademickie Centrum Komputerowe Cyfronet AGH.

COI będzie wdrażać model, jako narzędzia dla urzędników i w mObywatelu. W aplikacji pojawi się wirtualny asystent, który ułatwi obywatelom korzystanie z usług administracji publicznej. Natomiast Cyfronet AGH będzie dostarczać mocy obliczeniowych pod uczenie modeli i ich udostępnianie. Cyfronet AGH dysponuje nowoczesną infrastrukturą obliczeniową w tym najszybszym superkomputerem w Polsce – Helios.

PLLuM – wspólnie z modelem Bielik – mogą promować sztuczną inteligencję tworzoną w Polsce, wspierając się wzajemnie w lepszym procesie trenowania i dalszym pozyskiwaniu oraz otwieraniu danych, potrzebnych by AIMadeInPoland było coraz lepsze – dla administracji publicznej, biznesu i społeczeństwa” – mówią przedstawiciele resortu cyfryzacji.

Inwestycja w cyfrową suwerenność

PLLuM to dowód na to, że możemy rozwijać nowoczesne technologie na własnych warunkach, w naszym języku, z korzyścią dla obywatelek i obywateli. Tworzymy fundament pod inteligentne usługi publiczne i innowacje, które będą realnym wsparciem zarówno dla administracji, jak i biznesu” – mówi Krzysztof Gawkowski, wicepremier i minister cyfryzacji.

Polski model językowy, a właściwie na dziś 18 modeli, wykorzystuje od 8 do 70 mld parametrów. Pozwala na precyzyjne generowanie treści w języku polskim. „Mniejsze wersje dobrze sprawdzają się w szybkich zadaniach, podczas gdy większe oferują wyższą precyzję i kontekstową spójność w rozumieniu języka polskiego. W rodzinie modeli PLLuM znajdują się m.in. modele w architekturze Mixture of Experts ze zrównoważonym wyborem ekspertów oraz wyspecjalizowane modele Retrieval Augmented Generation” – wyjaśniają autorzy projektu.

Konsorcjum PLLuM podkreśla etyczny sposób pozyskiwania danych. Wersje do użytku komercyjnego wykorzystują zasoby tekstowe od właścicieli, którzy udzielili licencji konsorcjum (także ITwiz), a także zasoby, które, zgodnie z ustawą o prawie autorskim i prawach pokrewnych oraz przepisami UE, mogą być wykorzystane do budowy w pełni otwartego modelu.

Modele naukowe (tj. udostępniane na licencjach, które nie pozwalają na zastosowania komercyjne) korzystają także z ogólnodostępnych zbiorów danych, takich jak Common Crawl.

Trenowanie i rozwój modeli PLLuM

Dostrajany na autorskich zbiorach danych, czyli dziesiątkach tysięcy tzw. instrukcji – pobudzeń (promptów) i oczekiwanych odpowiedzi modelu – oraz preferencji – pobudzeń i różnych odpowiedzi modeli ocenionych pod kątem jakościowym – tworzonych przez zespół ponad 50 specjalistów i specjalistek.

Rozwój PLLuM to inwestycja w cyfrowe państwo. Do tej pory przeznaczyliśmy na ten projekt 14,5 mln zł, a teraz idziemy krok dalej – kolejne 19 mln zł pozwoli na wdrożenie modelu w administracji publicznej i rozszerzenie współpracy o nowych partnerów, takich jak COI i Cyfronet. Dzięki temu PLLuM stanie się kluczowym elementem cyfryzacji usług publicznych i rozwoju krajowego ekosystemu AI” – powiedział Dariusz Standerski, wiceminister cyfryzacji.

PLLuM wyróżnia się na tle innych modeli językowych. Jest dostosowany do specyfiki języka polskiego oraz terminologii administracji publicznej. W procesie jego tworzenia stosuje kompleksowe procedury gromadzenia danych i oceny ich jakości. PLLuM przede wszystkim korzysta z danych organicznych – opracowywanych ręcznie, a nie przy użyciu innych modeli językowych. Trenowany na polskich zasobach, bardzo dobrze radzi sobie z wyzwaniami fleksji i złożonej składni generując precyzyjne treści.

Konkretne zastosowania polskich LLM-ów

PLLuM dostarczy zaawansowanych rozwiązań dla administracji publicznej i tym samym wesprze dalszą cyfryzację Polski:

  • Wirtualny asystent w mObywatel, który wesprze obywateli i obywatelki w uzyskiwaniu informacji publicznych.
  • Inteligentny asystent urzędniczy, który zautomatyzuje przetwarzanie dokumentów, analizę treści, wyszukiwanie informacji i wsparcie w udzielaniu odpowiedzi na pytania obywateli i obywatelek.
  • Edukacja, ułatwi rozwój aplikacji edukacyjnych, tłumaczeń i pomoc nauczycielom i nauczycielkom w prowadzeniu angażujących lekcji z użyciem najnowszych technologii.

Rozwój PLLuM to także szansa na wzmocnienie konkurencyjności Polski w sektorze IT i całej gospodarce. Inwestycje w sztuczną inteligencję przyczyniają się do powstawania nowych firm i produktów opartych na AI, napędzając wzrost gospodarczy. Wykorzystanie PLLuM w różnych obszarach – od edukacji i administracji po sektor prywatny – sprzyja tworzeniu nowoczesnych rozwiązań, które umacniają pozycję Polski wśród liderów rozwoju AI” – przekonują przedstawiciele Ministerstwa Cyfryzacji.

PLLuM jest dostępny na stronie konsorcjum.

Modele PLLuM można pobrać na Hugging Face.

Test modeli LLM w zakresie kompetencji językowych i kulturowych w języku polskim

ModelDostawcaśrednia (6 kategorii)sztuka i rozrywkakultira i tradycjageografiagramatykahistoriasłownictwo
O1-2024-12-17OpenAI89.17869295849088
Gemini-Exp-1206Google83.00839086698882
Claude-3.5-Sonnet-20241022Anthropic82.67778785799177
GPT-4o-2024-05-13OpenAI82.33839289708278
Claude-3.7-SonnetAnthropic81.50808387749075
GPT-4o-2024-08-06OpenAI81.33828988668677
GPT-4o-2024-11-20OpenAI81.33828986678480
Claude-3.5-Sonnet-20240620Anthropic80.67738586758976
DeepSeek-R1DeepSeek76.00667584748572
Gemini-2.0-Flash-Thinking-Exp-01-21Google74.83727684688069
Gemini-2.0-Flash-ExperimentalGoogle74.17687879658372
Claude-3-OpusAnthropic73.83737680668662
Gemini-Pro-1.5Google69.67627774587968
DeepSeek-v3DeepSeek69.17617379627763
PLLuM-8x7B-nc-chatPLLuM68.17727673477368
GPT-4-turboOpenAI67.00617479567656
Grok-2-1212xAI66.00576777647457
Llama-3.1-Tulu-3-405BMeta63.83646471567553
Bielik-2.2SpeakLeash63.00546072537762
Bielik-2.3SpeakLeash62.17586168497661
Bielik-2.1SpeakLeash61.00556468507356
Llama-3.1-405bMeta60.00565774577343
GPT-4OpenAI59.50496367587248
PLLuM-12B-nc-chatPLLuM59.50596570417052
O3-mini-2025-01-31OpenAI59.33465178676747
Claude-3.5-Haiku-20241022Anthropic57.83436272576152
GPT-4o-mini-2024-07-18OpenAI56.83425769556751
Claude-3.0-SonnetAnthropic56.50465365567346
Mistral-Large-2407Mistral54.17485263517140
Mistral-Large-2411Mistral52.00395261546442
O1-mini-2024-09-12OpenAI51.67384466616140
WizardLM-2-8x22bMicrosoft51.50455060496738
Qwen-MaxAlibaba50.83435053516345
Command-R-Plus-08-2024Cohere50.17444961436143
Mixtral-8x22bMistral49.83454159506935
Command-R-Plus-04-2024Cohere49.33395253456146
Llama-3.3-70BMeta48.83434059496537
Llama-3.1-70BMeta47.83424158446834
Bielik-0.1SpeakLeash46.67435261295837
Gemini-Flash-1.5Google46.50334161465147
GPT-3.5-turboOpenAI43.33393855415136
Llama-3.0-70BMeta43.00403849456422
Gemma-2-27bGoogle42.67324147465337
Qwen-2.5-72bAlibaba39.17253045455436
Mistral-Small-24B-2501Mistral39.00332942454936
Qwen-PlusAlibaba38.50263242474638
Mixtral-8x7bMistral35.33312744345620
Gemma-2-9bGoogle29.17192330383530
Phi-4Microsoft29.17231735344026
Qwen-Turbo-2024-11-01Alibaba28.50152030334231
Mistral-NemoMistral23.00201326312820
Command-R7BCohere22.83141833232722
Llama-3.1-8BMeta22.67191331292519
Mistral-7b-v0.3Mistral21.8322927273016
Ministral-8bMistral20.67141219243322
Qwen-2.5-7bAlibaba17.6751117292321

Źródło – Hugging Face

Tagi

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *