Sztuczna inteligencjaCIOPolecane tematy

GenAI na uniwersytety!

Czy na uniwersytecie potrzebny jest CAIO, w jaki sposób GenAI może zmienić kulturę współpracy badawczej na uczelni i czy pojawią się sztuczni współ-naukowcy? Z dr hab. Katarzyną Śledziewską, dyrektor zarządzającą DELab UW rozmawiamy o perspektywach i korzyściach z wykorzystania generatywnej sztucznej inteligencji w dydaktyce i badaniach prowadzonych na uczelniach. 

GenAI na uniwersytety!

Sztuczna inteligencja przenika wszystkie trzy wymiary działania uczelni, takiej jak Uniwersytet Warszawski: nauki, dydaktyki i administracji UW. Czy dobre praktyki korzystania z generatywnej AI, opisane w ubiegłorocznym raporcie opracowanym przez zespół DELab, mają charakter uniwersalny dla wszystkich tych obszarów?

Tak. Zarówno w badaniach naukowych, dydaktyce, jak i administracji kluczowe są kwestie ochrony danych, środowiskowe, odpowiedzialności za treść wygenerowaną przez AI, transparentności użycia oraz krytycznej weryfikacji rezultatów. Zasady zaproponowane we wspomnianym zbiorze dobrych praktyk są wspólne, ale ich implementacja różni się w zależności od roli użytkownika i kontekstu – inne są potrzeby naukowca w pracy z tekstem naukowym, inne wykładowcy tworzącego materiały, a jeszcze inne administratora przetwarzającego dane na UW.

Czy wcześniejsze doświadczenia z AI, Big Data i zarządzania danymi mogą być fundamentem dla obecnego podejścia?

Zdecydowanie tak – mamy naprawdę solidny fundament dla adaptacji generatywnej AI. Na uczelni już od lat rozwijamy kompetencje związane z przetwarzaniem języka naturalnego, text miningiem, automatyzacją analiz – czego przykładem mogą być działania zespołu DELab UW, ale także wielu innych jednostek i badaczy reprezentujących różne dyscypliny.

Mówię to również z perspektywy ekonomistki. Ekonomia od zawsze opierała się na matematyce, analizie ilościowej, pracy z danymi. Dziś jednak nie chodzi już tylko o dane w sensie klasycznym – chodzi o nowe źródła danych, nowe podejścia do ich przetwarzania, nowe pytania badawcze.

Na Wydziale Nauk Ekonomicznych UW powstają zespoły i ośrodki badawcze, które integrują naukowców o różnych kompetencjach, by wspólnie eksperymentować z narzędziami AI i rozwijać nowy sposób uprawiania nauki. Innowacyjność w badaniach przekłada się bezpośrednio na dydaktykę. Dzięki cyfrowym narzędziom uczymy inaczej, kształtując u studentów te kompetencje, które rzeczywiście będą im potrzebne na zmieniającym się rynku pracy. To bardzo ważna synergia.

Warto jednak podkreślić coś jeszcze. W kontekście wykorzystywania nowych technologii coraz bardziej liczą się nie tyle umiejętności techniczne w wąskim sensie, co zdolność do krytycznego myślenia, syntezy, łączenia wiedzy z różnych dziedzin. To kompetencje kognitywne, które uniwersytety rozwijają od zawsze – niezależnie od tego, jaką technologią akurat dysponujemy.

I to właśnie uważam za największy atut uniwersytetu: uczymy myśleć. Rozwijamy w młodych ludziach połączenia neuronalne, otwieramy ich na złożoność świata, dajemy im intelektualne narzędzia do interpretacji rzeczywistości. W czasach, gdy technologia staje się coraz bardziej dostępna i „zdemokratyzowana”, a praca w środowisku cyfrowym nie wymaga już specjalistycznego programowania, to zdolność do refleksji, rozumienia i odpowiedzialnego działania staje się kluczową przewagą naszych absolwentów.

Czy jest przewidywane powołanie jakiegoś ciała, które mogłoby rozwijać spójne wytyczne dla wszystkich tych obszarów? Jeśli tak – kto powinien być CAIO UW, jaki powinien mieć zespół, kompetencje?

W mojej opinii potrzebujemy na Uniwersytecie Warszawskim, ale również na poziomie kraju w Ministerstwie Nauki i Szkolnictwa Wyższego interdyscyplinarnego, stałego zespołu. Jego zadaniem powinno być nie tyle sprawowanie kontroli, co stwarzanie warunków do rozwoju – budowanie środowiska sprzyjającego innowacjom, eksperymentowaniu i wdrażaniu nowych pomysłów związanych z wykorzystaniem generatywnej AI.

Mogłaby to realizować np. jednostka typu CAIO (Chief AI Officer), która odpowiadałaby za inicjowanie i wspieranie dobrych praktyk, rozwój kompetencji, koordynację projektów, budowanie kultury odpowiedzialnego eksperymentowania, a także – w razie potrzeby – udzielanie wsparcia w zakresie aspektów prawnych czy etycznych.

Taki zespół powinien łączyć informatyków, prawników, dydaktyków, naukowców, przedstawicieli administracji i studentów – czyli reprezentantów wszystkich grup akademickiej wspólnoty.

Uczelnie powinny także aktywnie podejmować próby rozwijania własnych modeli językowych (LLM), trenowanych na zasobach tworzonych wewnętrznie. To właśnie one mogą stać się źródłem przyszłych przewag, baz wiedzy i unikalnych narzędzi wspierających badania, dydaktykę i administrację. Takie praktyki sprawdziły się w bankach czy innych instytucjach świadomie budujących strategie AI.

A może np. jakiś ośrodek przyjąłby rolę podobną do tej, którą zrealizował w l. 90 CIUW?

Tak byłoby najlepiej. Tak jak w latach 90. powstało Centrum Informatyczne UW, dziś potrzebujemy kolejnej wspólnej inicjatywy – zainicjowanej przez najbardziej doświadczone zespoły. Mam nawet pomysł na nazwę – CZUWAI (Centrum Zarządzania Uczelnią Włączającą AI).

Jakie swoiste cechy posiada środowisko akademickie w kontekście adaptacji GenAI?

Uczelnie mają przewagę w postaci większego nacisku na niezależność, transparentność, jakość, wnikliwość i myślenie krytyczne. Dobre praktyki w ochronie danych (np. brak zgody na wprowadzanie danych osobowych do narzędzi zewnętrznych GenAI i dbałość o dokumentację (cytowanie, śledzenie użycia) są wpisane w kulturę akademicką. Z drugiej strony – ograniczeniem może być mniejszy dostęp do zasobów w porównaniu do sektora prywatnego oraz silne zróżnicowanie poziomu cyfryzacji jednostek i wydziałów.

Kolejną ważną cecha jest krytyczne myślenia, dociekanie, ciekawość. Te cechy powinniśmy pielęgnować w zderzeniu z rozwojem AI. Pozwalają one kształtować badania, jak i edukację kolejnych pokoleń, aby przygotować społeczeństwo do zmian, jakie nas czekają zarówno w wymiarze społecznym, gospodarczym oraz geopolitycznym.

Jak AI zmieni naukę? Tworzenie innowacyjnej kultury badawczej w dobie AI to nie tylko kwestia technologii, ale przede wszystkim ludzi, relacji i organizacji pracy naukowej.

Sztuczna inteligencja otwiera przed nami nowe możliwości, ale potrzebujemy zmiany paradygmatu – odejścia od pracy izolowanej w ramach jednej dyscypliny, od sztywnych hierarchii i od modelu kariery opartego na indywidualnym dorobku.

W świecie, w którym eksplorujemy nowe, często niedające się łatwo sklasyfikować obszary nie wystarczą znane metody i klasyczne układy zespołów. Potrzebujemy struktur elastycznych, opartych na zaufaniu, otwartych na różnorodność kompetencji i stylów myślenia. Stąd tak ważne jest wspieranie zespołów interdyscyplinarnych, łączących informatyków, humanistów, biologów, językoznawców, socjologów, etyków, artystów… Tylko dzięki takim zestawieniom można podejmować ryzyko intelektualne i generować rozwiązania rzeczywiście nowe – nieprzewidywalne z perspektywy jednej specjalizacji.

Jednocześnie powinniśmy pamiętać o bardzo ważnej roli doświadczonych naukowców – nie tyle jako „strażników status quo”, ale jako mądrych towarzyszy młodych innowatorów. Innowacje – zwłaszcza te najbardziej przełomowe – często wnoszą osoby młode, niedopasowane do istniejącego systemu, nienasycone i odważne w eksperymentowaniu, ale to starsze pokolenie ma coś bezcennego: doświadczenie, głębię rozumienia, umiejętność stawiania pytań, które naprawdę mają znaczenie.

Jeśli stworzymy warunki, w których te dwa sposoby myślenia – entuzjazm młodych i mądrość starszych – będą się uzupełniały, a nie wykluczały, zyskamy coś znacznie większego niż tylko lepsze narzędzia czy nowe publikacje. Zbudujemy środowisko twórczej odwagi, w którym możliwa będzie prawdziwa zmiana – zarówno w nauce, jak i w sposobie, w jaki rozumiemy jej sens.

Aby tak się stało, uczelnia powinna aktywnie wspierać budowę takich zespołów – nie tylko formalnie: grantami czy infrastrukturą, ale także organizacyjnie i kulturowo: dając przestrzeń na nieoczywiste eksperymenty, umożliwiając współpracę między wydziałami, a przede wszystkim – doceniając wartość wspólnego międzypokoleniowego tworzenia wiedzy, niezależnie od wieku, pozycji czy dyscypliny.

Tworzenie kultury badawczej przyjaznej innowacyjności w dobie AI wymaga od uczelni zaufania do badaczy i zapewnienia im odpowiednich warunków pracy…

Obserwujemy głęboką przemianę w sposobach prowadzenia badań naukowych. Sztuczna inteligencja – zwłaszcza w formie modeli generatywnych – staje się coraz częściej narzędziem nie pomocniczym, ale wręcz współtwórczym. W niemal każdej dyscyplinie naukowej – od fizyki przez ekonomię po językoznawstwo – pojawiają się nowe źródła danych, nowe metody analizy i zupełnie nowe możliwości stawiania pytań badawczych. To rodzaj nowego otwarcia w nauce – zmienia się nie tylko technika, ale sam proces twórczy.

Część tych zastosowań jest dokumentowana i publikowana jako wyniki badań naukowych. Równie istotna – a często niezauważona – pozostaje jednak warstwa eksperymentów i prób, które naukowcy podejmują na własną rękę, w ukryciu przed formalnym systemem ewaluacji. To właśnie te oddolne inicjatywy – pomysły rozwijane w zespołach, na styku dyscyplin, niekiedy wręcz intuicyjnie – powinny być traktowane jako jądro innowacyjnej kultury badawczej. I to one potrzebują wsparcia.

Nie chodzi jedynie o dostęp do najnowszych modeli AI – ale także o możliwość korzystania z danych, przestrzeni obliczeniowych, zespołów wsparcia technicznego. Tak jak kiedyś uczelnie inwestowały we wspólne laboratoria czy biblioteki, tak dziś powinny budować wspólne środowiska do pracy z danymi i modelami językowymi, w tym także rozwijać własne modele LLM/SLM dopasowane do potrzeb środowiska naukowego.

Jakie scenariusze zastosowania są formułowane?

Jeśli chodzi o scenariusze wykorzystania GenAI, można – na wzór sektora komercyjnego – wyróżnić dwa typy zastosowania. Pierwszym są scenariusze optymalizujące, które przyspieszają i usprawniają codzienną pracę badacza: przegląd literatury, kodowanie, segmentacja danych, pomoc w pisaniu wniosków grantowych. Drugim typem zastosowań są scenariusze, w których AI staje się częścią rdzenia procesu badawczego – narzędziem do modelowania zjawisk w biologii, fizyce, matematyce, projektowania eksperymentów, a w naukach humanistycznych: interpretacji dużych korpusów tekstów, analizy języka czy systematyzacji kategorii pojęciowych.

W tym sensie AI nie tylko wspiera naukę, ale ją kształtuje na nowo. W badaniach DELab UW wykorzystano modele językowe do przeprowadzenia zautomatyzowanych metaanaliz, a na Wydziale Fizyki czy w bioinformatyce GenAI służy już jako narzędzie symulacji lub analizy danych eksperymentalnych.

Gdzie dostrzega Pani szczególny potencjał tej technologii?

Ogromny potencjał kryje się w integracji AI jako agenta współpracującego z naukowcem na etapie koncepcyjnym, metodologicznym i analitycznym.

Jednocześnie, potencjał wykorzystania AI jako narzędzia twórczego i badawczego jest wszechobecny – i to właśnie czyni Uniwersytet Warszawski tak wyjątkowym środowiskiem. Uczelnia nie jest instytucją z jedną agendą badawczą, to mozaika dyscyplin, zespołów, pytań, stylów pracy. W tej różnorodności widzę ogromną siłę.

Na UW mamy interdyscyplinarne zespoły o wysokich kompetencjach. Mamy zainteresowanie ze strony młodych badaczy, którzy chcą eksperymentować, ale również środowisko doświadczonych naukowców. Mamy doświadczenie w pracy z danymi, dostęp do platform cyfrowych, a coraz częściej także do infrastruktury umożliwiającej rozwój własnych modeli – dużych i mniejszych – dopasowanych do naszych potrzeb. Przede wszystkim mamy jednak to, co najważniejsze: problemy badawcze, które aż proszą się o nowe podejścia. Od wyzwań związanych z klasyfikacją danych, przez predykcję zjawisk biologicznych, aż po interpretację kulturowych i społecznych zjawisk – w wielu miejscach AI może nie tylko wspierać naukę, ale realnie ją zmieniać.

Dlatego jestem głęboko przekonana, że proces adaptacji AI powinien być wspierany oddolnie – nie narzucany, nie kontrolowany, ale ułatwiany. Trzeba zaufać badaczom, dać im przestrzeń do eksperymentowania, dostęp do narzędzi, możliwość łączenia kompetencji w nieoczywistych zespołach. Uczelnia powinna stworzyć warunki, w których AI staje się czymś więcej niż tylko technologią – staje się partnerem w tworzeniu nowej wiedzy.

Jak wygląda problem prawny – wytwarzanie dzieł przy pomocy GenAI? Czy praca biologa z Alpha Fold należy do niego, do uczelni czy systemu AI?

W świetle obecnych regulacji, autorstwo można przysługiwać wyłącznie człowiekowi – co oznacza, że model AI nie może być „współautorem” odkrycia. Jeśli biolog wykorzystuje AlphaFold do odkrycia struktury białka, to odkrycie przysługuje jemu lub instytucji. Jednak w przypadku wspólnego tworzenia treści, np. kodu lub artykułu z pomocą AI, te zasady są niejasne. Potrzebna jest uczelniana polityka własności intelektualnej w kontekście AI.

Inny ważny obszar to dydaktyka. Czy UW powinien uczyć poruszania się w świecie AI?

Zdecydowanie. Jak pokazuje nasz raport (Generatywna AI na UW), zarówno studenci, jak i wykładowcy oczekują jasnych zasad, przykładów użycia, przestrzeni do testowania i uczenia się. Potrzebujemy szkoleniowej „piaskownicy” zastosowań AI – platformy dydaktycznej, gdzie można ćwiczyć korzystanie z AI w edukacji w sposób bezpieczny, zgodny z etyką i polityką uczelni.

Z drugiej strony, potrzebujemy własnego, transparentnego, etycznego i legalnego rozwiązania. Nie tylko jako alternatywy dla komercyjnych narzędzi, ale też przestrzeni edukacyjnej, gdzie można eksplorować, testować, porównywać, promować dobre praktyki.

Czy możliwe jest i zasadne budowanie narzędzi do obiektywnej ewaluacji pracy studentów i profesorów?

Z pewnością tak, ale z ostrożnością. Modele mogą pomóc np. w analizie stylu wypowiedzi, generowaniu wariantów testów, ocenie językowej. Jednak ostateczna ocena powinna być po stronie człowieka. Co ważne, według naszych badań ponad połowa studentów UW nie akceptuje oceniania prac z użyciem GenAI.

A może środowisko akademickie mogłoby się także pokusić o stworzenie wspólnej platformy do obsługi procesów administracyjnych?

Tak – i to wręcz konieczne. Agenci AI mogliby wspierać pracowników w tworzeniu raportów, wniosków, przeszukiwaniu przepisów, analizie danych. Ale potrzebne są dane wysokiej jakości i wspólny system, aby uniknąć tworzenia własnych narzędzi przez każdą uczelnię osobno. Potencjalnie rolę integratora mógłby pełnić COI lub MEN.

Jakie istniejące na uczelniach procesy administracyjne mogą być wsparte AI?

Uczelnia, przy swojej specyfice nakowo-edukacyjnej i wynikającej z regulacji, funkcjonuje podobnie jak każda nowoczesna organizacja. Zarządza złożonymi zasobami ludzkimi, finansowymi, informacyjnymi i infrastrukturalnymi, obsługuje tysiące użytkowników, musi reagować na zmieniające się otoczenie prawne i technologiczne. AI może odegrać w tym kontekście rolę narzędzia nie tylko usprawniającego bieżące działania, ale też wspierającego strategiczne zarządzanie, organizacyjną elastyczność i budowę kultury innowacyjności.

Kluczem do sukcesu nie jest jednak sama technologia, lecz kultura organizacyjna, która pozwala ją wprowadzać i rozwijać. AI nie będzie skuteczna w organizacji, w której wiedza jest rozproszona, dane nie są zintegrowane, a decyzje zapadają wyłącznie centralnie. Uczelnia potrzebuje kultury współpracy, otwartości na dzielenie się wiedzą i decentralizacji odpowiedzialności – po to, by zespoły mogły szybko reagować, eksperymentować, testować i rozwijać rozwiązania dostosowane do własnych potrzeb.

Transformacja cyfrowa administracji uczelni powinna opierać się na tych samych zasadach, które sprawdzają się w biznesie: spójnej strategii, elastycznej strukturze, silnym przywództwie, wspieraniu kompetencji i skutecznym zarządzaniu wiedzą. Z tą jednak różnicą, że uczelnia – jako wspólnota akademicka – ma obowiązek nie tylko zwiększać efektywność, ale też zachowywać swoje wartości: wolność akademicką, specyficzne relacje międzyludzkie, odpowiedzialność społeczną badawczą i dydaktyczną. AI może być tutaj nie tylko narzędziem optymalizacji, ale także źródłem przewagi konkurencyjnej, lepszej obsługi studentów, sprawniejszego działania i bardziej świadomego zarządzania. O ile tylko towarzyszyć jej będzie wizja, otwartość i gotowość do zmiany.

Jakie są tendencje w zastosowaniu narzędzi GenAI w nauce, w dydaktyce?

Coraz większy udział mają zastosowania związane z dydaktyką i pracą indywidualną studentów – AI jako mentor, nauczyciel, symulator. Rośnie też zainteresowanie naukowców narzędziami wspierającymi przeglądy literatury. Wciąż jednak dominują zastosowania „pomocnicze”, nie „transformacyjne”.

Jak środowisko ocenia swoją zdolność adaptacji GenAI?

Większość użytkowników widzi więcej korzyści niż zagrożeń – ale potrzebuje wsparcia, szkoleń i jasnych zasad. Jest duży entuzjazm – ale wymaga to strategicznego zarządzania zmianą i inwestycji w kompetencje.

W obliczu fundamentalnych wyzwań, przed którymi stoją dziś uczelnie wyższe – takich jak niedopasowanie do zmieniającego się rynku pracy, potrzeba rozwijania kompetencji horyzontalnych i społecznych, brak zarządzania opartego na danych czy sztywność struktur organizacyjnych – technologia generatywnej sztucznej inteligencji okazuje się nie tylko wyzwaniem, ale również szansą na głęboką transformację instytucji akademickiej.

Tagi

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *