WydarzeniaSztuczna inteligencjaBranża ITPolecane tematy
Centrum Wiarygodnej SI uruchomione na Politechnice Warszawskiej
Polska ze światowym centrum wyjaśnialnej sztucznej inteligencji (Explainable Artificial Intelligence – XAI)? Nasze środowisko badaczy i praktyków AI staje przed szansą działania w ramach unikalnej platformy rozwoju i adaptacji XAI – Centre for Credible AI – Centrum Wiarygodnej Sztucznej Inteligencji Politechniki Warszawskiej oferuje unikalny model interdyscyplinarnej współpracy przy tworzeniu i badaniu środków do uczynienia AI transparentną, wyjaśnialną i odpowiedzialną – wiarygodną.
7 października odbyła się uroczystość inauguracji nowego ośrodka badawczego – Centrum Wiarygodnej Sztucznej Inteligencji (Centre for Credible AI, „CCAI”) na Politechnice Warszawskiej. Gwarancję działania CCAI przez pierwsze 5 lat stanowi grant w wysokości 30 mln zł z programu Fundusze Europejskie dla Nowoczesnej Gospodarki (FENG), które w drodze konkursu przyznała Fundacja na rzecz Nauki Polskiej w ramach działania Międzynarodowe Agendy Badawcze (MAB). CCAI to nawiasem mówiąc pierwszy ośrodek poświęcony badaniom AI w ramach MAB. Dla porządku dodajmy, że rozstrzygnięcie konkursu nastąpiło w marcu br., wtedy zapadła decyzja o utworzeniu Centrum, które nastąpiło w czerwcu.
Budowa metod wyjaśniania, sposobów implementacji w badaniach oraz badanie wpływu AI
W Centrum działać będą cztery grupy badawcze, w których pracować będzie ponad 20 naukowców z Polski i z zagranicy. Jak w rozmowie z ITwiz powiedział prof. Przemysław Biecek, dyrektor CCAI i lider obszaru Red Team XAI: „stanowiska w nowym ośrodku cieszą się ogromnym zainteresowaniem kandydatów – to znacząca zmiana, ponieważ dotychczas w polskich warunkach pozyskanie kandydatów post doc do ośrodka naukowego zajmującego się AI stanowiło dotąd poważne wyzwanie”.
Jedna z grup badawczych CCAI będzie badała działanie algorytmów w mediach społecznościowych, które bardzo często prowadzą do polaryzacji. Kolejne dwa zespoły skupią się na wykorzystaniu wyjaśnialnej sztucznej inteligencji w fizyce i w naukach biologicznych. Czwarta grupa będzie się skupiać na opracowaniu nowych metod interpretacji i walidacji modeli AI.
„Żyjemy w bardzo burzliwych czasach, to, co widzimy, w co wierzymy i czym się dzielimy, czasami prowadzi polaryzacji (społeczeństwa – przyp. red.). Służy jej wykorzystanie mediów społecznościowych. Rosnąca polaryzacja wymaga ostrożnego zrozumienia, dlatego stworzyliśmy zespół Blue XAI w Centrum, aby analizować algorytmy audytu mediów społecznościowych i upewnić się, że wpływ jest transparentny. Ale sztuczna inteligencja to nie tylko ryzyko, to także szanse. W związku z tym stworzyliśmy w Centrum dwa zespoły: Physics XAI i Bio XAI. Dwa zespoły, które używają wyjaśnialnej AI do odkrywania nowych granic w fizyce dla AI i AI dla fizyki. Ten sam model będziemy realizować dla biochemii, w medycynie. Ponieważ każde odpowiedzialne użycie AI wymaga silnych metod interpretacji, mamy również inny zespół o nazwie Red XAI, skupiający się na nowych metodach walidacji, wiarygodności i tworzeniu nowych narzędzi do eksploracji modeli. Wspólnie te zespoły kierują się naszą misją, aby sprostać najbardziej pilnym wyzwaniom, a także najbardziej ekscytującym możliwościom dzisiejszej AI” – mówił prof. Biecek.
Prof. Biecek przewodzi zespołowi Red XAI. Z kolei liderem obszaru BIO XAI jest prof. Dariusz Plewczyński, biolog obliczeniowy i naukowiec specjalizującym się w genomice, bioinformatyce i zastosowaniach sztucznej inteligencji w naukach przyrodniczych. Prowadzi interdyscyplinarne badania nad integracją uczenia maszynowego z wiedzą biologiczną, koncentrując się na analizie złożonych danych genomowych i organizacji genomu 3D. Nie ogłoszono natomiast jeszcze nazwisk szefów zespołu wyjaśnialnej sztucznej inteligencji w fizyce oraz zespołu badającego wpływ społeczny LLM-ów oraz innych systemów opartych o AI, z którym styczność ma człowiek (tzw. Blue Team XAI).
Wyjaśnialność – polska specjalność?
Schemat pracy i obszar zagadnień zaproponowany w CCAI jest unikalny w Europie i prawdopodobnie na świecie. Zwraca na to uwagę prof. Biecek, mówiąc, że chciałby, aby Centrum stało się europejskim punktem odniesienia dla zagadnień wyjaśnialności i transparentności. W kuluarowej rozmowie unikalny status CCAI potwierdził to prof. Wojciech Samek, dyrektor Departamentu Sztucznej Inteligencji w Instytucie Fraunhofera HHI, którego zespół jest największą na świecie grupą zajmującą się wyjaśnialną sztuczną inteligencją. Mówił o tym także podczas swojego wystąpienia: „Misja CCAI jest bardzo spójna z naszą misją we Fraunhofer HHI. Dostrzegam lukę i potrzebę istnienia takiego ośrodka, pracując w tej dziedzinie od ponad 10 lat nad rozwojem metod wyjaśniania”. Mówiąc o luce – prof. Samek wyjaśniał, że chodzi o brak ośrodka opracowującego nowe metody i narzędzia XAI; inne grupy skupiają się raczej na poszukiwaniu możliwości audytowania modeli i rozwiązań AI.
Obecność profesora Samka na uroczystości wiąże się także ze strategicznym partnerstwem nowego ośrodka Politechniki Warszawskiej z Instytutem Fraunhofera HHI, który jest jednym z ponad 70 instytutów tej sieci, ale przy tym jednym z największych i najstarszych, którego historia dobiega 100 lat. „Nasza sława wynika stąd, że co drugi bit w Internecie dotyka technologii opracowanej w HHI” – mówił prof. Samek. Znaczna część dochodów Instytutu pochodzi z opłat licencyjnych z kompresji wideo, a sam Instytut reprezentuje długofalowe podejście do zwrotu z inwestycji w pionierskie technologie. Instytut HHI jest np. pionierem w inwestowaniu w startupy w zamian za wirtualne udziały. Stąd między innymi pomysł, aby Instytut HHI dzielił się z CCAI doświadczeniem w przekształcaniu wyników badań w startupy i w praktyczne rezultaty aplikowane przez rynek.
Pamela Krzypkowska, dyrektor Departamentu Badań i Innowacji Ministerstwa Cyfryzacji widzi nawet szerzej potencjał metod i narzędzi, które mają powstawać w Centrum, wskazując na rynek amerykański i globalny. Jak zwróciła uwagę, zaufanie do AI wykorzystywanej coraz powszechniej w usługach i produktach podlega erozji, np. za Oceanem. Remedium byłyby właśnie powstające CCAI środki, wspierające proces tworzenia i konstytuujące proces wyjaśnialności, transparentności działania algorytmów stojących za modelami AI.
Pełni nadziei
O miejscu, zadaniach i roli nowego Centrum mówili także uczestnicy krótkiej dyskusji panelowej, która odbyła się z okazji inauguracji. Udział w niej wzięli prof. Zbigniew Brzóska, kierownik Katedry Biotechnologii Medycznej Wydziału Chemicznego PW, Pamela Krzypkowska, dyrektor Departamentu Badań i Innowacji Ministerstwa Cyfryzacji oraz Borys Stokalski, prezes Polskiej Izby Informatyki i Telekomunikacji.
Profesor Brzóska podnosił m.in. rolę AI w odkryciach naukowych, zwłaszcza w kontekście Nagród Nobla oraz medycyny a w tym kontekście – znaczenie wyjaśnialnych rozwiązań. Wskazywał także na rolę łączącą, interdyscyplinarną, jaka przypadnie Centrum: „Prawdziwa współpraca między inżynierami a lekarzami (w obrębie tworzenia i wykorzystania narzędzi opartych na AI – przyp. red.) nie jest łatwa, ale konieczna, bo inaczej nie mamy postępu. Idea Centrum Doskonałości polega na tym, że powinno być platformą lub bezpośrednim miejscem do łączenia się i kontaktu np. z Warszawskim Uniwersytetem Medycznym. Pozwoli to zniwelować dystans między inżynierami, technologami a lekarzami, dyskutować bezpośrednio”.
Pamela Krzypkowska wypowiadała się na temat instrumentów polityki publicznej, transparentności i wdrażania AI w administracji. Mówiła m.in. o podstawie politycznej i potrzebie „łączenia kropek” pomiędzy praktykami, politykami i badaczami: „Uważam, że pod względem politycznym mamy bardzo dobrą podstawę. Mamy ustawę AI Act, która mówi o transparentności i polskie rozporządzenie, które wdraża Ustawę. Chcemy wypełnić lukę między polityką, która jest tylko kolejną strategią, a technologią, która jest używana musimy połączyć kropki. Sam AI Act mówi o tym, jak ważna jest transparentność, ale nie precyzuje, czym jest transparentność, jak ją definiujemy”.
W służbie publicznej wyjasnialność i rozumienie działania AI jest także wyzwaniem. „Potrzebujemy przetłumaczyć politykę na wytyczne techniczne, na faktycznie instrukcje i narzędzia dla urzędników państwowych i osób, które nie są ekspertami AI, aby mogli zrozumieć technologię i zrozumieć, na czym opiera się ich decyzja” – mówiła Pamela Krzypkowska.
Nawiązując do potencjału zastosowań wyników prac nowego Centrum, przywołała także inicjatywę Baltic Gigafactory: „Pytanie o wiarygodność AI jest bezpośrednio związane z pytaniem o cyber-suwerenność. Projekt Baltic Gigafactory będzie nie tylko zmierzał do budowy nowych modeli, ale także ich skalowania. Będzie to w służbie publicznej możliwe jedynie dla rozwiązań wiarygodnych, wyjaśnialnych” – stwierdziła.
Borys Stokalski skupił się na znaczeniu odpowiedzialności w innowacji, argumentując, że wymogi te są w rzeczywistości motorem wzrostu. „Nie wszystkie ograniczenia zakazują innowacji. Myślę, że jest wiele ograniczeń, które są źródłem innowacyjnych produktów” – mówił. Odnosząc to do przedmiotu działalności Centrum podał przykład nowoczesnych zakładów produkcyjnych: „Klienci, którzy widzieli, że autonomiczne urządzenia są przewidywalne i wyjaśnialne w tym, co robią na hali produkcyjnej, byli bardziej skłonni do podejmowania tych decyzji inwestycyjnych”. Zwrócił także uwagę na analogię pomiędzy XAI a znanym i działającym podejście odpowiedzialnej inżynierii (Responsible Engineering). „Ten sposób myślenia, który jest zgodny z koncepcją odpowiedzialnej inżynierii, obecnej w wielu innych branżach poza przemysłem cyfrowym, jest czymś, co absolutnie musimy przyjąć i ma to ogromną wartość komercyjną, jeśli potrafimy to zrobić dobrze z perspektywy biznesowej” – mówił Borys Stokalski.
Warto na koniec wynotować kilka wypowiedzi, które padły podczas uroczystej inauguracji.
- Wykorzystywanie AI staje się już powszechne, a zastosowania są coraz bardziej poważne – np. w medycynie czy przemyśle obronnym. „To ogromna odpowiedzialność – sztuczna inteligencja może kosztować życie, ale też, może pomóc to życie uratować. Dlatego ważne jest, abyśmy inwestowali nie tylko w rozwój technologii, ale również opracowywanie metod jej kontrolowania, tak aby AI była wiarygodna i bezpieczna dla nas wszystkich” – mówił prof. Krzysztof Pyrć, prezes Fundacji na rzecz Nauki Polskiej.
- Profesor Mariusz Malinowski, wice-rektor ds. badań naukowych podkreślał znaczenie Centrum dla Politechniki Warszawskiej i jej dotychczasowe osiągnięcia w dziedzinie AI oraz współpracy z partnerami medycznymi. „Sztuczna Inteligencja była przez cały czas, bardzo ważna dla nas, zwłaszcza gdy zostaliśmy uniwersytetem badawczym, zdefiniowaliśmy również w tym czasie, że sztuczna inteligencja jest jednym z naszych obszarów badawczych. Dziś mamy największą w kraju liczbę obron doktoratów w dziedzinie sztucznej inteligencji” – powiedział.
- Efektem działalności CCAI mają być otwarte narzędzia, nowe standardy oraz wykształcenie specjalistów zdolnych projektować systemy AI, które budzą zaufanie i wspierają rozwój nauki, technologii i społeczeństwa. „Chcemy, aby w perspektywie pięciu lat nasze Centrum stało się europejskim punktem odniesienia w zakresie wyjaśnialnej, wiarygodnej i przejrzystej sztucznej inteligencji. Dołożymy wszelkich starań, by AI służyła nauce, ludziom i społeczeństwu” – mówi prof. Przemysław Biecek.








