WydarzeniaSztuczna inteligencjaRynek

Modele AI uczą się kłamać. W Krakowie uczą się, jak je na tym przyłapać.

AI potrzebuje bezpieczeństwa. Ponad stu młodych naukowców z całego świata spotka się na Machine Learning Summer School on Reliability & Safety w Krakowie. Wśród organizatorów jest Instytut Badawczy IDEAS.

Modele AI uczą się kłamać. W Krakowie uczą się, jak je na tym przyłapać.
Foto: Adam Padryl

Rozwój sztucznej inteligencji wchodzi dziś w fazę, w której kluczowe przestaje być już tylko to, jak szybko budujemy modele, ale przede wszystkim to, czy potrafimy im zaufać. Systemy oparte na uczeniu maszynowym coraz częściej trafiają do zastosowań krytycznych, od finansów po bezpieczeństwo państwa. To sprawia, że pytania o ich niezawodność, odporność na manipulacje i przewidywalność działania przestają być tematem akademickim, a stają się realnym wyzwaniem technologicznym i społecznym.

Właśnie na tym obszarze koncentruje się Machine Learning Summer School on Reliability & Safety 2026, która odbędzie się w dniach 29 czerwca do 3 lipca w Krakowie. Wydarzenie gromadzi młodych badaczy, inżynierów oraz przedstawicieli środowiska akademickiego i przemysłu, tworząc przestrzeń do rozmowy o tym, jak budować systemy AI, którym można zaufać.

Szkoła letnia wpisuje się w rosnący globalny trend przesuwania uwagi z samej wydajności modeli na ich bezpieczeństwo i odpowiedzialność. To kierunek, który coraz wyraźniej wyznacza agendę badań nad sztuczną inteligencją.

Nauka, przemysł i wspólna odpowiedzialność

W organizację MLSS Reliability & Safety 2026 zaangażowane są wiodące ośrodki badawcze i środowiska naukowe, w tym Uniwersytet Jagielloński w Krakowie, Group of Machine Learning Research (GMUM), ML in PL Association, Instytut Badawczy IDEAS, ELLIS Unit Warsaw oraz Jagiellońskie Centrum Sztucznej Inteligencji (JCAI). Współorganizacja przez tak szerokie grono partnerów podkreśla rangę wydarzenia i jego silne osadzenie zarówno w środowisku akademickim, jak i praktyce rozwoju technologii AI.

Program wydarzenia obejmuje wykłady prowadzone przez ekspertów reprezentujących zarówno czołowe ośrodki akademickie, jak i firmy technologiczne. Wśród zaproszonych prelegentów znaleźli się m.in. Franziska Boenisch z CISPA Helmholtz Center for Information Security, Dominik Janzing z Amazon, Wojciech Samek z Fraunhofer Heinrich Hertz Institute oraz Randall Balestriero z Meta AI.

Z ramienia Instytutu Badawczego IDEAS wykłady poprowadzi Tomasz Michalak, lider AI Strategy Lab w IDEAS i członek ELLIS Unit Warsaw, którego badania obejmują zastosowania teorii gier w sieciach oraz bezpieczeństwo systemów uczenia maszynowego.

„Dla IDEAS uczestnictwo w organizacji MLSS^R&S to naturalna konsekwencja tego, czym się zajmujemy. Zależy nam na tym, żeby środowisko badające bezpieczeństwo AI w Europie miało przestrzeń do wymiany wiedzy i budowania relacji. Kraków jest w tym roku tym miejscem” – mówi dr hab. Tomasz Michalak z IDEAS.

To połączenie perspektywy naukowej i przemysłowej nie jest przypadkowe. Problemy związane z bezpieczeństwem AI nie kończą się w laboratoriach. Ich konsekwencje są odczuwalne w realnych systemach, które działają w środowiskach produkcyjnych.

Uczestnikami szkoły są przede wszystkim doktoranci, studenci studiów magisterskich oraz młodzi naukowcy. Wśród aplikujących znajdują się również przedstawiciele sektora technologicznego, co pokazuje, że temat niezawodności modeli ML przestaje być domeną wyłącznie badań podstawowych.

Wyzwania nowej generacji AI

Instytut Badawczy IDEAS od początku swojej działalności koncentruje się na obszarach, gdzie AI spotyka się z pytaniami o niezawodność, bezpieczeństwo i długoterminowe skutki wdrożeń.

Jak podkreśla dr Artur Kołodziejczyk-Skowron odpowiedzialny w Instytucie IDEAS za współpracę międzynarodową: „Rozwój AI osiągnął punkt, w którym sama skuteczność modeli przestaje być wystarczająca. Dziś równie ważne jest to, czy system działa w sposób przewidywalny, czy jest odporny na manipulacje i czy możemy go bezpiecznie wdrażać w środowiskach o wysokiej odpowiedzialności.”

W ocenie IDEAS inicjatywy takie jak MLSS Reliability & Safety są kluczowe dla budowania nowego pokolenia badaczy, którzy rozumieją nie tylko algorytmy, ale także ich konsekwencje.

„Potrzebujemy specjalistów, którzy będą potrafili projektować systemy AI z myślą o ich realnym zastosowaniu. Bezpieczeństwo nie jest dodatkiem do technologii. To jej fundament” – dodaje dr Artur Kołodziejczyk-Skowron.

Czym jest niezawodność w uczeniu maszynowym

Dla osób niezajmujących się tematem na co dzień warto wyjaśnić, o co chodzi. Niezawodność i bezpieczeństwo w kontekście ML to nie to samo, co cyberbezpieczeństwo w klasycznym sensie. Chodzi o odporność modeli na ataki adwersarialne, czyli próby celowego zmylenia systemu przez zmodyfikowane dane wejściowe, o interpretowalność, czyli zdolność do wyjaśnienia, dlaczego model podjął daną decyzję, oraz o zachowanie modeli w warunkach odbiegających od danych treningowych.

To zagadnienia kluczowe wszędzie tam, gdzie systemy AI podejmują decyzje z realną stawką: w diagnostyce medycznej, systemach autonomicznych, infrastrukturze krytycznej. Właśnie dlatego rośnie zapotrzebowanie na badaczy rozumiejących te problemy na poziomie fundamentalnym, nie tylko aplikacyjnym.

MLSS^R&S odpowiada na to zapotrzebowanie w praktyczny sposób. Pięć dni intensywnej pracy, wykładów, dyskusji i sesji posterowych w międzynarodowym środowisku tworzy przestrzeń, w której kształtują się kompetencje kluczowe dla przyszłości AI.

To właśnie takie inicjatywy stają się jednym z ważniejszych elementów budowania europejskiego zaplecza badawczego i technologicznego w obszarze sztucznej inteligencji.

Tagi

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *