Sztuczna inteligencjaPolecane tematy
AI i edukacja, czyli ryzyko potrójnej abdykacji
Z Agnieszką Kosiak, trenerką biznesu, edukatorką, zaangażowaną w społeczność Spichlerz i działającą w Grupie Roboczej AI (GRAI) przy Ministerstwie Cyfryzacji rozmawiam o: potrzebie przełamania trzech samoograniczeń efektywnego wykorzystania AI w edukacji: „abdykacji” społecznej ludzi na rzecz maszyn, cyfrowej – humanistów na rzecz inżynierów i pokoleniowej – dorosłych na rzecz dzieci.

W jaki sposób sztuczna inteligencja może zostać wkomponowana w proces edukacyjny?
Najważniejsza jest świadomość czym jest i do czego może służyć AI. Dziś nie jest z tym najlepiej.
Prowadzę cykl szkoleń z nauczycielami liceów i techników w ramach projektu „AI w pracy nauczyciela” i tylko ok. 20% z kilku tysięcy osób, które wzięły udział w projekcie, znało np. ChatGPT. Reszta nie korzysta, nie zna, nie zainteresowała się, albo zastosowała okazjonalnie. Stąd bierze się teza o swoistej abdykacji, z jaką mamy do czynienia w kontekście rewolucji AI i cyfryzacji.

AI nie tyle tworzy nowe problemy, co raczej ujawnia te, które już istniały. Tradycyjna edukacja była oparta na procesie: szło się do biblioteki, przepisywało się informacje, robiło notatki, porównywało różne koncepcje. W ten sposób wiedza „wchodziła do głowy”. Dziś AI robi to wszystko za nas — jednym kliknięciem.
W tym wypadku to przykład abdykacji dorosłych na rzecz dzieci. Nauczyciele, dorośli tłumaczą: „My się nie znamy, dzieci tak dobrze scrollują, to one sobie same poradzą”. Tymczasem dzieci bardzo potrzebują dorosłych, którzy będą swoim, dorosłym umysłem je wspierać. A scrollowanie nie jest przecież kompetencją przyszłości.
Jakie są źródła tej niechęci do poznawania AI?
Winiłabym nie tyle niechęć, co zbyt duże tempo zmian. Nauczyciele języka polskiego, biologii, geografii, WF-u – pochłonięci codziennymi obowiązkami – nie zawsze mają czas i siły nadążać za tak szybko rozwijającą się technologią. Dodatkowo nauczyciel chciałby być autorytetem dla dzieci, a kiedy się na czymś nie zna, to obawia się narazić na niekompetencję czy nawet śmieszność.
Podczas szkoleń staram się ośmielić nauczycieli. Bez ich dorosłych umysłów, bez ich doświadczenia, myślenia krytycznego, uważności, ostrożności – dzieci są bezradne i samotne.
Ale nauczyciele chętnie korzystają z technologicznych udogodnień, np. z generatorów testów i sprawdzianów. To też jest pewna forma abdykacji? Oddania odpowiedzialności za proces edukacyjny?
To zjawisko, które profesor Joanna Mytnik z Centrum Nowoczesnej Edukacji Politechniki Gdańskiej nazwała kiedyś „szarą strefą edukacyjną”. Nauczyciele udają, że nie znają AI, a uczniowie udają, że jej nie używają. Wszyscy wiedzą, że to się dzieje, ale nikt nie mówi o tym głośno. Dlatego tak ważne jest wspólne poznawanie i uczenie się technologii i otwarte rozmawianie z uczniami o zmianach, które przynosi i będzie przynosić.
Szerokim echem odbiły się informacje o szkołach Alpha w Teksasie i na Florydzie, gdzie nauczycielami są wyłącznie chatboty AI.
Rozmawiałam o tym z moją córką, która właśnie skończyła kognitywistykę. Powiedziała: „Mamo, po pierwsze – czy w takim niecodziennym projekcie te dzieci były reprezentatywne? Może to były wyjątkowe jednostki, które i tak świetnie by się uczyły? Po drugie, to przypomina edukację domową. Jeśli masz czas na pasje i indywidualny tok nauki, to efekty zawsze będą lepsze”.
Przecież wiele dzieci nie mieści się w rytmie klasy. Jedne są „za wolne”, inne „za szybkie”. Mało kto “trafia” dokładnie w ten moment, w którym nauczyciel chciałby, aby byli. Jedni jeszcze nie doszli do danego tematu, inni już go dawno przeszli. Bo proces nauki to coś więcej niż pobieranie danych z taśmy.
Czy edukację tradycyjną da się uratować, np. zmieniając podejście nauczycieli?
Tradycyjny model edukacji wymaga nie tyle zmiany podejścia nauczycieli, co radykalnej przebudowy całego systemu. Zwiększenia zaufania do nauczycieli. Zmniejszenia biurokracji. Mądrze interpretowanej podstawy programowej oraz przede wszystkim porozumienia, że nowy system powinni tworzyć praktycy edukacji, a nie politycy.
Pojawia się dziś zjawisko określane jako lenistwo poznawcze. Jeśli nie będziemy już musieli mnożyć, pisać, czytać – to, co ludzkość rozwijała przez tysiące lat – może zacząć zanikać. Możliwe, że przechodzimy do kultury obrazkowo-słuchowej, a zdolność czytania i głębokiego myślenia stanie się czymś rzadkim, a może nawet elitarnym.
Potrzeba spokoju i mądrości, a nie ciągłych rewolucji. Szczególnie, że mamy całkiem niezły system prawny pozwalający na wiele modeli edukacyjnych, tworzenie różnych typów szkół – demokratycznych, alternatywnych, Montessori, leśnych. Marzy mi się takie prawdziwe wysłuchanie głosów ekspertów, którzy razem mogliby zbudować pomysł na nową polską szkołę.
Są dyrektorzy szkół, jak Jarosław Pytlak czy Marianna Kłosińska, badacze edukacji jak profesor Roman Leppert czy wspomniani dr Joanna Mytnik, profesor Marek Kaczmarzyk, dr Marzena Żylińska, Anna i Robert Sowińscy, cały ruch Budzących się szkół, EduKosmitów, innowatorów i entuzjastów, którzy mają spójny pomysł na szkołę. Potrzebujemy ogólnego uświadamiania dorosłych – rodziców, dziadków, że potrzebna jest zmiana podejścia.
Jeszcze w przedszkolach jest świetnie. Dzieci się tam bawią, uczą przez ruch i doświadczenie. Ale potem, w klasach 1–3 i wyżej, wszystko się zmienia. Pojawiają się tacy zabójcy procesu uczenia, jak kserówki oraz dziennik elektroniczny. Dziennik, bo wymaga karmienia go ocenami, raportami oraz staje się narzędziem stałej kontroli.
Jedna z moich córek opowiadała ze smutkiem, że po ciekawej dyskusji na lekcji nauczyciel postawił jej bardzo dobrą ocenę. Po latach w edukacji domowej taki szkolny ocenocentryzm był dla niej trudny. Jako dorośli nie wystawiamy sobie przecież ocen za ciekawą rozmowę. To w pewnym sensie odziera z szacunku.
Natomiast kserówki i żmudne wypełnianie ćwiczeń to odciągnięcie dzieci od pracy manualnej. Kiedy w młodszym wieku jest mało okazji do pracy na konkretach – liczenia kasztanów, lepienia ludzików z plasteliny, składania origami, budowania karmników – to potem w starszych klasach młodzież nie potrafi wyobrazić sobie siatki bryły czy oszacować jej wymiarów.
Dzieci za wcześnie zaczynają kolorować i rozwiązywać ćwiczeniówki, a za mało się ruszają. A przecież młody ssak, aby dobrze się uczył, potrzebuje czterech rzeczy: możliwości popełniania błędów, działania w grupie, zabawy, ruchu. Co robi szkoła? Skupia się na pracy samodzielnej, karze za błędy, wymaga wielogodzinnego bezruchu oraz daje bardzo mało okazji do radosnej nauki przez zabawę związaną z ciekawością odkrywania świata
Jeśli przywrócimy pewne fundamenty, to sztuczna inteligencja będzie jak nóż na zajęciach technicznych, którym kroimy chleb, albo lutownica. Narzędzie, które może być użyte dobrze lub źle, zależnie od tego, kto i jak je wykorzystuje.
Jest też bardzo trafne pojęcie: nie „sztuczna inteligencja”, ale „inteligencja kolaboratywna”. Ona nie ma nas zastępować, tylko wspierać. To my mamy się uczyć z jej pomocą, a nie od niej. Jeśli mamy świadomość, że AI może konfabulować, zmyślać, mówić głupoty, ale umiemy ją sprawdzać, traktować jako partnera do ćwiczeń, to wszystko jest w porządku.
Nauczyciele udają, że nie znają AI, a uczniowie udają, że jej nie używają. Wszyscy wiedzą, że to się dzieje, ale nikt o tym nie mówi. Dlatego tak ważne jest wspólne poznawanie i uczenie się technologii i otwarte rozmawianie z uczniami o zmianach, które przynosi.
Tu dochodzimy do kluczowej sprawy: obrony krytycznego myślenia. Dziś ono nie jest ani chronione, ani szczególnie cenione, nawet na uniwersytetach. Mam wrażenie, że ta wartość gdzieś się rozmywa.
A przecież powinno być otoczone prestiżem, jako coś naprawdę ważnego.
W koncepcji wspomnianej szkoły Alpha w USA bardzo podobało mi się to, że nauczyciele zostali uwolnieni do bycia w relacji z uczniami. Ale jeśli AI przejmie funkcję nauczyciela, a nauczycieli zwolnimy – to będzie katastrofa. Gdy AI odciąży nauczyciela od biurokracji i da mu czas, siłę i sprawczość, by być z dziećmi – wtedy odzyskamy szkołę.
Nauczyciel to powinien być ktoś, kto pomaga uczniowi rozpoznać swoje mocne strony, kto wspiera, dodaje odwagi, mówi: „Dasz radę!”. Kiedy prowadzę jakieś zajęcia edukacyjne, staram się przede wszystkim przywrócić uczniowi sprawczość i wiarę w jego możliwości. Pomóc mu, aby odważył się „rozwinąć skrzydła” i samodzielnie frunąć. Oczywiście należy też stawiać wymagania i pomagać je realizować.
Cyfryzacja i sztuczna inteligencja mają teoretycznie potencjał, aby uwolnić czas – zarówno nauczyciela, jak i ucznia – aby mógł np. pojechać z rodzicami na weekend do Jury Krakowsko-Częstochowskiej i wrócić z nową wiedzą oraz pomysłami.
Przykład o Jurze Krakowsko-Częstochowskiej bardzo do mnie przemawia. Dla mnie to także dowód pewnej abdykacji. My, jako rodzice, oddaliśmy odpowiedzialność za przekazywanie wiedzy szkole. Tymczasem podczas rodzinnego wypadu można się uczyć równie dobrze, a może nawet lepiej niż w klasie. Zamiast odrabiać lekcje, można odkrywać świat.
Dziś niestety wiedza często kojarzy się z opresją szkolną. A przecież to coś pięknego – mieć dostęp do informacji, móc się uczyć, zrozumieć, jak powstaje węglan wapnia, jak tworzą się stalaktyty i stalagmity. Musimy odzyskać wiedzę jako całość, a nie jako poszatkowane fragmenty przypisane do konkretnych przedmiotów i do szkolnego obowiązku.
Oczywiście są wspaniali nauczyciele i świetne szkoły. Sama współpracuję z jednym liceum, które stosuje metodę nauczania VESS opartą na krytycznym myśleniu – Project Zero z Harvardu. Tam zdefiniowano 21 aspektów myślenia, które uczniowie poznają podczas lekcji. Uczą się rozpoznawać, kiedy analizują, kiedy porównują, kiedy wyciągają wnioski, kiedy znajdują analogie. To świadome rozwijanie myślenia.
W koncepcji szkoły Alpha w USA bardzo podobało mi się to, że dzięki „korepetytorom AI” nauczyciele zostali uwolnieni do bycia w relacji z uczniami. Gdy AI odciąży nauczyciela od biurokracji i da mu czas, siłę i sprawczość, by być z dziećmi odzyskamy szkołę.
Są też tzw. rutyny myślenia oraz klucze refleksji- nauczyciel pokazuje uczniom, że teraz obserwujemy fakty, teraz analizujemy emocje, a teraz rozpoznajemy formę lub szukamy powiązań z innymi dziedzinami. To ciekawy model, który warto wdrażać.
Bardzo cenię też podejście konstruktywistyczne, które promuje prof. Dorota Klus-Stańska z Uniwersytetu Gdańskiego. Mówi ono, że zadaniem jako nauczycieli nie jest „nauczyć”, ale stworzyć przestrzeń, w której dziecko samo skonstruuje wiedzę w swojej głowie. To właśnie jest prawdziwa edukacja, nie podawanie informacji, ale budowanie środowiska, w którym uczeń może je odkrywać.
Te przykłady uświadamiają, jak bardzo szkoła – a wraz z nią nauczyciele, uczniowie i rodzice – nie jest jeszcze przygotowana na świadome i odpowiedzialne korzystanie z Generatywnej AI.
Ale warto zauważyć coś jeszcze! AI nie tyle tworzy nowe problemy, co raczej ujawnia te, które już istniały. Tradycyjna edukacja była oparta na procesie: szło się do biblioteki, przepisywało się informacje, robiło notatki, porównywało różne koncepcje. W ten sposób wiedza „wchodziła do głowy”.
Dziś AI robi to wszystko za nas – jednym kliknięciem. Generuje gotowy esej, podsumowanie, analizę. Ale uczeń czy student nie przechodzi przez ten proces, który miał ułożyć wiedzę w jego głowie, aktywować odpowiednie połączenia neuronowe. Dlatego musimy wymyślić nowy sposób uczenia się. Sposób, który uwzględnia obecność AI, ale nie rezygnuje z głębokiego poznania oraz budowania współpracy.
Pojawia się też zjawisko określane jako Metacognitive Laziness – lenistwo poznawcze. Obcowanie z AI może prowadzić do spadku aktywności umysłowej. Już wcześniej internet wypierał przecież książki. Nicholas Carr w książce „Płytki umysł” pisał o tym, jak technologia wpływa na nasze zdolności poznawcze. Nasze umysły się zmieniają.
Pokazuję studentom, jak AI rozwiązuje zadania czy prezentacje, aby ich z tym oswoić. Nie chodzi o to, by ślepo ufać, ale by nauczyć się krytycznego podejścia: „Zobaczcie, co AI zrobiło. Czy to ma sens? Gdzie się pomyliło? Pokłóćcie się z nim”. To bardzo rozwijające.
Tak jak zanikła u nas część sprawności fizycznej, bo nie wykonujemy już ciężkiej pracy fizycznej, tak samo mogą osłabnąć niektóre zdolności poznawcze. Jeśli nie będziemy już musieli mnożyć, pisać, czytać – to, co ludzkość rozwijała przez tysiące lat – może zacząć zanikać. Możliwe, że przechodzimy do kultury obrazkowo-słuchowej, a zdolność czytania i głębokiego myślenia stanie się czymś rzadkim, a może nawet elitarnym.
Mam wrażenie, że dryfujemy. Nikt – poza garstką świadomych osób – nie jest dziś zdopingowany do pogłębiania wiedzy. Reszta podąża w stronę wypłycenia. Jeśli nie uchwycimy się jakiegoś punktu oparcia, jakiejś belki w tej rozpadającej się konstrukcji, to po prostu pójdziemy na dno.
A może właśnie ta nowa konstrukcja nas uratuje? Może budujemy nowy statek? Coraz więcej dzieci ma dziś cechy neuroróżnorodności – ADHD, spektrum autyzmu. Może to nie przypadek, tylko forma przystosowania naszego gatunku do nowych warunków?
Bo prawda jest taka: nie wiemy, jaka będzie przyszłość, więc powinniśmy uwzględniać różne warianty i rozwijać wiele kompetencji
W kontekście rozwoju technologii i jej zależności od postępu w matematyce: czy brak zainteresowania matematyką może prowadzić do powszechnej zapaści? Co się stanie, jeśli zabraknie ludzi zdolnych do takiego myślenia?
To bardzo ważne pytanie. Wierzę, że osoby z matematycznymi predyspozycjami prędzej czy później je rozwiną – niezależnie od systemu. Ale problem jest szerszy. Badania pokazują, że dziewczynki w szkole często tracą zainteresowanie matematyką, mimo że zdolności matematyczne nie zależą od płci. To kwestia sposobu nauczania.
Umysł dziecka dojrzewa do myślenia abstrakcyjnego ok. 12. roku życia. Tymczasem program szkolny często wymaga opanowania algebry wcześniej. To prowadzi do frustracji. Dziecko, które za kilka lat byłoby świetne z matematyki, w tym momencie nabiera przekonania, że jest „głupie”, że „nie potrafi”. I to przekonanie zostaje z nim na długo.
Wielu dorosłych, którzy dziś mówią „jestem humanistą”, mogłoby zrozumieć matematykę, gdyby ktoś im ją spokojnie wytłumaczył. Niestety, ich własne złe doświadczenia zniechęcają kolejne pokolenia. To pokoleniowy lęk przed matematyką.
Nie zgadzam się z podziałem: „albo polski, albo matematyka”. Matematyka i język polski się uzupełniają. Rozkład zdania to czysta logika. A zrozumienie treści zadania matematycznego wymaga dobrej znajomości języka.
Potrzebujemy bardziej praktycznych, „humanistycznych” kursów z Gen AI – takich, które pokazują, jak korzystać z AI w pracy z uczniami, jak rozmawiać o tym z klasą, jak wspierać proces edukacyjny. To powinien być kurs użytkownika, nie konstruktora.
Czy matematycy przestaną się rozwijać? Myślę, że nie. Osoby z matematycznym „pazurem” będą szukać tej drogi, nawet jeśli szkoła im nie pomoże, ale szkoda talentów, które mogą po drodze przepaść
Zastanawiam się, jaką rolę może odegrać sztuczna inteligencja jako partner w edukacji, zwłaszcza w kontekście matematyki? Lubię zaglądać na blog Gary’ego Marcusa, który często punktuje słabości modeli AI w tym zakresie.
Pamiętajmy, że tempo rozwoju tych modeli jest niesamowite. Jak mówi “prawo Ethana Mollicka” – zabawna parafraza jednej z jego zasad współpracy z AI opisanych w książce „Ko-Inteligencja”: “jeśli AI czegoś dziś nie potrafi… sprawdź za tydzień.”
W ramach społeczności Bielik, w której działam, tworzymy właśnie matematyczny benchmark – zestaw zadań, które przepuszczamy przez różne modele, by sprawdzić ich zdolność rozumowania w obszarach matematyki. Naprawdę widać postęp.
Oczywiście, czasem modele językowe – aby dodać 2 i 2 – „wędrują” przez pół godziny przez różne etapy rozumowania, ale jest coraz lepiej. Rok temu modele radziły sobie średnio, Kiedy listopadzie prowadziłam zajęcia ze studentami z całek, granic i pochodnych, było już znacznie lepiej. Chat GPT poprawnie rozwiązywał zadania, podawał przykłady, tłumaczył i to naprawdę sensownie. Oczywiście, zawsze sprawdzam poprawność, bo zdarzają się błędy, nawet w prostych działaniach. Ale to też świetna okazja do nauki.
Pokazuję studentom, jak AI rozwiązuje zadania czy robi prezentacje, aby ich z tym oswoić. Nie chodzi o to, by ślepo ufać, ale by nauczyć się krytycznego podejścia: „Zobaczcie, co AI zrobiło. Czy to ma sens? Gdzie się pomyliło? Pokłóćcie się z tym rozwiązaniem”. To bardzo rozwijające.
To podejście, traktowanie AI jako partnera w procesie, a nie tylko narzędzia do generowania efektu, bardzo mi się podoba. I myślę, że to kluczowe również w kontekście matematyki.
Jak Pani zdaniem powinno wyglądać wdrażanie AI w szkołach? Czy nauczyciel informatyki powinien pełnić rolę „brokera modeli” – osoby, która uczy, ale też wspiera innych nauczycieli w korzystaniu z narzędzi AI, aby kompetencje były w szkole? Czy może powinna istnieć centralna platforma?
Ostatnio prowadziłam zajęcia w jednej ze szkół i usłyszałam od nauczycieli: „Pani Minister powiedziała, że od września ChatGPT ma wejść do szkół”. Byłam tym zaskoczona, delikatnie mówiąc, bo nauczyciele nie są jeszcze na to przygotowani. Chyba że przez wakacje ruszy jakaś duża akcja szkoleniowa.
Potrzebujemy nauczycieli, którzy nie tylko nadążają za uczniami, ale potrafią im doradzić, pokierować, być przewodnikami. Inaczej grozi nam w obszarze nowych technologii wspomniana „abdykacja dorosłych na rzecz dzieci”.
Jeśli mamy świadomość, że AI może konfabulować, zmyślać, mówić głupoty, ale umiemy ją sprawdzać, traktować jako partnera do ćwiczeń, to wszystko jest w porządku. Ale potrzeba do tego krytycznego myślenia. Dziś zaś ono nie jest ani chronione, ani szczególnie cenione.
Paradoksalnie – nie zawsze to akurat informatyk powinien być tą osobą. Na uczelniach kursy z AI często mają bardzo inżynierski charakter: uczenie maszynowe, algorytmy, regresje… To nie jest wiedza, której potrzebują nauczyciele w szkołach.
Potrzebujemy bardziej praktycznych, „humanistycznych” kursów z Gen AI – takich, które pokazują, jak korzystać z AI w pracy z uczniami, jak rozmawiać o tym z klasą, jak wspierać proces edukacyjny. To powinien być kurs użytkownika, nie konstruktora.
Czy w ogóle da się jeszcze zaprogramować ten proces edukacyjny w sposób sekwencyjny – od przedszkola, przez szkołę podstawową i średnią, aż po uczelnie wyższe?
Moim zdaniem powinniśmy zacząć od góry, od uczelni. To wykładowcy powinni uczyć przyszłych nauczycieli, jak pracować z AI. Jeśli nauczyciel kończy studia i od razu trafia do pracy z dziećmi, to nie możemy czekać, aż przedszkolaki dorosną. Musimy działać teraz.
Powtórzę na pewno jedno: wszystko zaczyna się od świadomości. Dorośli muszą przestać się bać. Muszą zacząć się uczyć, ćwiczyć, współpracować.
Czyli co konkretnie powinno się zmienić?
Przede wszystkim edukacja AI – ale odpowiedzialna, etyczna. Potrzebujemy refleksji nad tym, jak uczymy, czego uczymy i po co. Dziś przyglądam się temu bardzo uważnie. To nie jest tylko kwestia narzędzi, ale też postawy: otwartości, odwagi, gotowości do współpracy i uczenia się razem – niezależnie od wieku czy roli.
AI może nam też podpowiedzieć coś ważnego. Lubię to zdanie: Nie bójmy się sztucznej inteligencji, bójmy się ludzi, którzy jej używają. Bo to nie AI decyduje, tylko człowiek. I to od nas zależy, czy użyjemy jej do dobra, czy do zła. To będzie nieustanna walka – również duchowa.
Jest Pani zaangażowana w rozwój Bielika w ramach społeczności Spichlerz. To może być narzędzie w takiej walce? Czy Bielik wpłynie na edukację?
Ostatnio z dr Joanną Mercik, wykładowczyni historii i socjologii z Uniwersytetu Śląskiego miałyśmy wystąpienie na konferencji “AI w edukacji” pt. „Pamięć w czasach AI. Między rekonstrukcją przeszłości a odpowiedzialnością za przyszłe narracje” – o tym, jak zadbać o historię. Jeśli tego nie zrobimy, zaleje nas fikcja i fałszywy realizm – Deep Fake.
Już dziś mamy generatory głosu, które potrafią „ożywić” zmarłych. Czy dzieci powinny słuchać bajek czytanych głosem nieżyjącego dziadka? Czy powinniśmy wędrować po cyfrowych rekonstrukcjach miejsc słynnych wydarzeń sprzed setek lat? To może być piękne, ale też bardzo niebezpieczne. Dzieci, i nie tylko, mogą przestać odróżniać prawdę od fałszu.
Potrzebujemy humanistów, którzy łącząc wiedzę historyczną z cyfrową świadomością będą pełnić rolę kuratorów algorytmów.
Na wykładzie Joanna Mercik mówiła: „Jeśli postać w filmie Faraon nosi zegarek, to wiemy, że coś tu nie gra. Ale jeśli fałsz jest bardziej subtelny, możemy nawet nie zauważyć, że podmieniono nam przeszłość”. O tym też mocno przypominamy obie nauczycielom przedmiotów humanistycznych na szkoleniach z AI w edukacji.
Dlatego także współtworzę projekt Obywatel Bielik, czyli równolegle z budowaniem modelu językowego Bielik tworzymy w Spichlerzu – projekt społeczny obywatelskiego zbierania danych. Chcemy wspierać tworzenie mostów międzypokoleniowych, edukację cyfrową, zapobiegać wykluczeniu. Zaangażować koła gospodyń wiejskich, seniorów, bibliotekarzy, harcerzy, aby wspólnie tworzyć archiwum polskiego dziedzictwa: zdjęcia zabytków, potraw, strojów regionalnych i ich dobrej jakości opisy. Dołączają do nas uniwersytety, muzea. Widzą w tym potencjał na projekty z dziedzin związanych z polską kulturą, sztuką, historią.
Dziś AI „żywi się” głównie anglojęzycznym internetem, a polski kontekst to mniej niż 1% danych. Chcemy to zmienić. To nazywam technopatriotyzmem – mądrym, odpowiedzialnym współtworzeniem AI. Pokazujemy, że Polacy mogą nie tylko korzystać z AI, ale też ją uczyć, współtworzyć, wspierać.
Właśnie tworzymy też „Sójkę” – Bielik Guard – mały model językowy, który rozpoznaje treści toksyczne i niebezpieczne. Jeśli ktoś zapyta w slangu np. „jak zrobić bombę” albo “jak popełnić samobójstwo”, to zagraniczne modele mogą tego nie wychwycić i udzielić nieodpowiedzialnych odpowiedzi. Sójka zareaguje. Będzie ostrzegać, gdy w rozmowie z modelem pojawi się nieodpowiednia treść na wejściu lub wyjściu. Także w Sójce bardzo potrzebny jest nam udział ochotników.
To buduje naszą obecność w cyfrowym świecie i wraca również do szkół, do uczniów.
Dokładnie. I chodzi nie tylko o teksty, ale też o obrazy. Od 28 czerwca 2025 roku obowiązuje prawny wymóg dostępności cyfrowej, zgodnie z którym wszystkie istotne zdjęcia na stronach internetowych muszą być opisywane. Głównie po to, by były dostępne dla osób niewidomych i słabowidzących. Obywatel Bielik ma pomóc w budowie modelu multimodalnego, który będzie potrafił rozpoznawać obrazy i odpowiednio je opisywać.
Chcemy, aby model widząc zdjęcie zamku, potrafił powiedzieć: „To jest Wawel”, a nie „jakiś zamek”. Zrobiliśmy niedawno testy i wyszło, że obecnie kadr z „Seksmisji” modele opisują jako „Gwiezdne wojny” albo mylą kluski śląskie z pierniczkami. To pokazuje, jak bardzo brakuje im odpowiednich danych.
Dlatego potrzebujemy ludzi którzy pomogą opisywać zdjęcia związane z polskością. Dzięki temu model będzie mógł się uczyć i coraz lepiej je rozumieć. To ogromna szansa, aby AI nie tylko nas nie zdominowało, ale byśmy mogli je współtworzyć — świadomie i odpowiedzialnie.
W przypadku Obywatela Bielika, rzeczywiście mamy misję. Chodzi o to, żeby w toku cyfryzacji nie utracić własnej tożsamości, żeby nikt nie mógł nam później wmówić rzeczy, które nie są nasze.
Co więcej społeczność Speakleash (Spichlerz) nie powstała po to, żeby stworzyć model językowy. Jej celem było nauczenie Polaków, jak odpowiedzialnie tworzyć AI. Bielik to jakby jedno z dań, które ugotowaliśmy w trakcie kursu gotowania. Podobnie jak Sójka, Obywatel Bielik, modele matematyczne, otwarte zbiory danych związanych z Polską.
To oddolna inicjatywa, która nie tylko tworzy technologię, ale też uczy i buduje wspólnotę. Lubię mówić, że jesteśmy społecznością, która uskrzydla.







