BiznesERPSztuczna inteligencjaRynekPREZENTACJA PARTNERA

Polski model AI już znajduje zastosowanie w biznesie. PLLuM-a wdrożył u siebie Comarch

Advertorial

Polska coraz śmielej przyłącza się do globalnego wyścigu technologicznego. Niedawno zaprezentowano PLLuM – polski model językowy, który pozwala generować i przetwarzać teksty w języku polskim, dobrze orientując się w specyfice rodzimej pisowni. Rozwiązanie w swoich systemach zaczął wykorzystywać Comarch, który wdrożył PLLuM-a u siebie lokalnie w aplikacji ChatERP – asystencie AI odpowiedzialnym za płynną komunikację między klientem a systemami do zarządzania firmą ERP.

Polski model AI już znajduje zastosowanie w biznesie. PLLuM-a wdrożył u siebie Comarch

PLLuM pojawił się na rynku raptem ponad tydzień temu. Podstawowym celem projektu (który został zrealizowany przez sześć podmiotów naukowych na zlecenie Ministerstwa Cyfryzacji) było zbudowanie rodziny modeli językowych dedykowanych polskiemu językowi i kulturze. Tym samym odróżnia go to od innych popularnych dużych modeli językowych, które wprawdzie umożliwiają komunikację w języku polskim, ale mają problemy z rozumieniem lokalnych kontekstów. PLLuM może być wykorzystywany zarówno w sektorze publicznym, jak i komercyjnym.

PLLuM ułatwia komunikację klientom Comarch

Rozwiązanie – ze względu na jego dopasowanie językowe – wykorzystał Comarch, jeden z czołowych polskich dostawców oprogramowania. Firma postanowiła wdrożyć u siebie lokalnie PLLuM-a w aplikacji ChatERP, inteligentnym asystencie użytkownika systemów Comarch ERP, który wspiera klientów w nawigacji po interfejsie, ułatwia wykonywanie zadań, odpowiada w języku naturalnym i automatyzuje powtarzalne obowiązki. Jest to jedno z pierwszych praktycznych wdrożeń PLLuM-a na masową skalę.

Comarch intensywnie testował różne modele AI – zarówno te dedykowane językowi polskiemu, jak i wielojęzyczne. Ostatecznie to PLLuM okazał się najskuteczniejszy, dlatego właśnie on został wybrany do silnika ChatERP.

Dlaczego zdecydowano się na taki krok?

„Na bieżąco śledzimy wszelkie nowości, które mogą znaleźć zastosowanie w rozwijanych przez nas produktach, dlatego natychmiast rozpoczęliśmy weryfikację modeli PLLuM pod kątem przydatności w Comarch ChatERP. Okazało się, że PLLuM znakomicie radzi sobie z generowaniem poprawnych pod względem gramatycznym i naturalnie brzmiących w języku polskim odpowiedzi dla użytkowników. Obecnie jest to pod tym względem niewątpliwie najskuteczniejsze dostępne rozwiązanie” – mówi Mariusz Zygmułka, dyrektor AI/ML w Comarch Enterprise Solutions.

Od teraz użytkownicy komunikujący się z ChatERP w systemach Comarch ERP otrzymają jeszcze bardziej zrozumiałe i jasne odpowiedzi w języku polskim. PLLuM ogranicza też wstawki w innych językach (np. angielskim), co ułatwia komunikację. Minimalizuje również pojawianie się niezrozumiałych kalek językowych czy nieistniejących słów. Polski model AI działa w polskim kontekście językowym i ma bogatsze słownictwo, co jest szczególnie ważne dla Comarch, który dostarcza rozwiązanie dla rodzimych klientów, posiadając niemal 25% udziału w polskim rynku ERP.

„Dodatkowo, PLLuM ma rozsądne wymagania sprzętowe i może być hostowany lokalnie. Cieszy, że wysiłek konsorcjum instytucji badawczych i wyższych uczelni został udostępniony szerokiemu gronu odbiorców. Z pewnością przyczyni się to nie tylko do popularyzacji w naszym kraju rozwiązań opartych na AI, ale również do ogólnie pojętej cyfryzacji polskiej gospodarki” – dodaje Mariusz Zygmułka.

Jak mówi dr inż. Marek Kozłowski, kierownik AI Labu z Ośrodka Przetwarzania Informacji – Państwowego Instytutu Badawczego (OPI PIB), jednej z instytucji zaangażowanych w tworzenie PLLuM-a: „Za tworzeniem polskich modeli przemawiają argumenty strategicznej niezależności, kreowania innowacji, a nie tylko konsumowania, czy opracowania modeli dysponujących większą znajomością polskiej kultury, języka i historii. Warto także dodać, że PLLuM został przetestowany za pomocą narzędzia Polish Linguistic and Cultural Competency Benchmark, które opracowaliśmy w OPI PIB. Osiągnął on bardzo dobre wyniki testów, co świadczy o tym, że rozumie on nie tylko język polski, ale także uwzględnia kontekst kulturalny, z którym mają problem niejednokrotnie anglojęzyczne modele”.

Projekt realizowało sześć podmiotów: Politechnika Wrocławska, Instytut Podstaw Informatyki PAN, Instytut Slawistyki PAN, Naukowa i Akademicka Sieć Komputerowa, Ośrodek Przetwarzania Informacji, Uniwersytet Łódzki. Zespół badaczy stworzył całą rodzinę polskich modeli językowych, od 8 do 70 mld parametrów, dostosowanych do różnych wyzwań językowych. To największy polski model językowy, który jako pierwszy objął adaptację językową modeli Mixture of Experts (MoE) i Llama 70B na tak dużą skalę. Podejście łączy pre-trening, dostrajanie na podstawie instrukcji oraz tzw. alignment, by modele lepiej odpowiadały na potrzeby użytkowników. Udostępniono 18 modeli na HuggingFace, obejmujących wersje fundamentalne, instrukcyjne i dialogowe, zabezpieczone przed nieetycznymi zachowaniami.

Tagi

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *