Sztuczna inteligencjaPREZENTACJA PARTNERA
AI w szpitalu: od papierologii do inteligentnych asystentów
Executive View Point
Sztuczna inteligencja w ochronie zdrowia przestała być science fiction – ale daleko jej też do wizji „lekarza‑robota”. W praktyce przyjmuje dziś dużo bardziej przyziemną, choć dla systemu kluczową rolę: staje się cyfrowym pomocnikiem lekarza, pielęgniarki, rejestratorki i menedżera szpitala. To właśnie ten organizacyjny wymiar AI może zadecydować o tym, czy placówki medyczne poradzą sobie z narastającą presją administracyjną, brakiem kadr i oczekiwaniami pacjentów.

Gośćmi podcastu, na którym oparty jest ten tekst, są: Mariusz Kot, Product Management Director w Mednow oraz Dawid Dybuk, Key Account Manager HLC & EDU w Amazon Web Services (AWS). Rozmowa ekspertów pokazuje bardzo pragmatyczne spojrzenie na AI w ochronie zdrowia – z naciskiem na realne wdrożenia, bezpieczeństwo i organizacyjne „zaplecze” innowacji.
AI nie zastąpi lekarza. Ma przejąć to, czego lekarz nie znosi
Pierwszy mocny akcent rozmowy to jednoznaczne odcięcie się od narracji, że „AI będzie nas leczyć”. Zarówno przedstawiciele Mednow, jak i AWS konsekwentnie podkreślają, że celem technologii jest odciążenie profesjonalistów, a nie przejęcie odpowiedzialności za decyzje kliniczne.
Największy potencjał leży dziś w przejęciu od lekarza i personelu tej części pracy, która prowadzi do wypalenia: żmudnej dokumentacji medycznej. Chodzi zarówno o przygotowywanie podsumowań historii choroby, wyszukiwanie rozproszonych informacji w systemie, jak i generowanie końcowych dokumentów.
AI może wstępnie przygotowywać dokumenty, wyrównywać formatowanie, podpowiadać brakujące elementy, a nawet automatycznie sprawdzać kompletność i spójność dokumentacji – np. czy obserwacje pielęgniarskie są zgodne z notatkami lekarskimi, a przekazanie pacjenta dalej nie gubi istotnych informacji. To nie tylko oszczędność czasu, ale również element bezpieczeństwa prawnego i jakościowego – dobrze prowadzona dokumentacja jest ostatecznie jednym z kluczowych „dowodów” prawidłowego leczenia.
„Szara” i „biała” strefa: gdzie AI już działa, a gdzie dopiero wchodzi
Rozmówcy proponują ciekawy podział szpitala na część „szarą” i „białą”.
- W części szarej – administracyjnej, organizacyjnej, formalnej – AI już dziś wchodzi bardzo odważnie.
- W części białej – ściśle klinicznej – rola AI jest ostrożnie budowana jako wsparcie, a nie autonomiczny decydent.
Przykładem „szarego” zastosowania jest projekt realizowany wspólnie z jednym z dużych polskich szpitali, w którym agenci AI pomagają analizować i przygotowywać zamówienia publiczne. Ten obszar nie dotyka bezpośrednio procesu leczenia, ale ma ogromny wpływ na efektywność funkcjonowania placówki – od zakupów po logistykę.
Po stronie „białej” AI pojawia się przykładowo jako:
- wsparcie w wypełnianiu dokumentacji wizyt,
- wirtualne rejestratorki i voiceboty obsługujące pacjentów,
- systemy przyspieszające opisy badań radiologicznych, czy przekształcające dyktowane opisy w ustrukturyzowane dane.
Przywoływany jest przykład radiologii, gdzie dzięki profilowanym modelom AI i szablonom czas opisu badania może spaść nawet ośmio-, czy dziesięciokrotnie, bo lekarz nie dyktuje całego tekstu, a tylko kluczowe frazy.
AI może też zwiększać efektywność organizacyjną: wdrożenie agentów przypominających pacjentom o wizytach pozwoliło w jednym z projektów ograniczyć odsetek nieodbytych wizyt z poziomów sięgających ok. 50% do zaledwie 10%.
Dane: od papieru do ustrukturyzowanej dokumentacji
Warunkiem sensownego użycia AI jest jakość danych. To dlatego goście podcastu tak mocno akcentują konieczność elektronicznej, ustrukturyzowanej dokumentacji medycznej.
Pierwszy krok to pełna cyfryzacja dokumentacji, ale rozumiana jako zestaw dokumentów z jasno określonymi polami, kategoriami i typami danych. Modele radzą sobie co prawda z tekstem nieustrukturyzowanym, jednak pełnię potencjału pokazują dopiero wtedy, gdy system HIS umożliwia kategoryzację informacji, integrację z zewnętrznymi źródłami (np. wynikami badań z innych placówek) oraz ich ponowne wykorzystanie w procesach analitycznych i raportowych.
Mednow zmieniło swoje systemy w taki sposób, aby łatwiej wprowadzać nowe typy dokumentów i kategorii do elektronicznej dokumentacji, tak by dodatkowe pola nie były barierą dla lekarza. W połączeniu z dyktowaniem do systemu i automatycznym rozbijaniem tekstu na znaczące informacje, AI może zlikwidować typową praktykę „wszystko w jedno pole”, wynikającą z braku czasu.
Co istotne, kompletność danych zależy nie tylko od systemu, ale też od człowieka – to lekarz czy pielęgniarka na końcu decydują, co zostanie wpisane. AI może tu pomóc, generując transkrypcje rozmów z pacjentem, podpowiadając brakujące pola, weryfikując spójność danych czy półautomatycznie kodując wypisy do klasyfikacji ICD.
Bezpieczeństwo, chmura i regulacje: AWS jako „job zero”
Wątek bezpieczeństwa przewija się przez cały podcast. Zarówno Mednow, jak i AWS jasno stawiają sprawę: bez zaufania i gwarancji ochrony danych wdrożenia AI w ochronie zdrowia nie mają sensu.
AWS deklaruje, że modele generatywne nie są trenowane na danych klientów – ani tych używanych w rozmowie z modelem, ani tych przechowywanych w chmurowej infrastrukturze danego podmiotu. Dane przetwarzane są w wydzielonych środowiskach klienta, odseparowanych od reszty chmury, z pełną kontrolą dostępu, szyfrowaniem „w spoczynku” i „w ruchu” oraz mechanizmami obserwowalności (kto, kiedy, z jakim modelem pracuje).
W usługach takich jak Amazon Bedrock, wbudowane są tzw. guardrails – zabezpieczenia, które uniemożliwiają modelowi odpowiedź na pytania wykraczające poza uprawnienia użytkownika lub kontekst systemu (np. o dane innego pacjenta czy informacje spoza obszaru medycznego). To ważne, bo – jak podkreślają rozmówcy – nie da się ręcznie nadzorować każdej interakcji użytkownika z modelem.
AWS od początku stawia na wariant „wielu modeli”. Zamiast jednego „supermodelu medycznego” oferuje szeroki katalog modeli otwartych i zamkniętych, które można dobierać do konkretnych przypadków użycia oraz „podpinać” pod wiedzę i dane konkretnego klienta. Najlepsze efekty dają właśnie rozwiązania korzystające z zasobów danego szpitala czy dostawcy HIS.
Agenci AI: od no‑show do planowania pracy całego szpitala
Najbardziej przyszłościowym, ale już dojrzałym kierunkiem rozwoju są agenci AI – systemy zdolne nie tylko odpowiadać na pytania, ale wykonywać wieloetapowe procesy.
Część z nich działa już dzisiaj:
- agenci rejestrujący pacjentów, wyszukujący terminy, wysyłający SMS‑y, ponawiający kontakt,
- voiceboty obsługujące telefony, zapisujące prośby o oddzwonienie, umawiające wizyty,
- systemy redukujące no‑show poprzez automatyczne przypomnienia i dynamiczne zarządzanie listą rezerwową.
W planach są bardziej zaawansowane scenariusze:
- automatyczne sugerowanie badań na podstawie analizy dokumentacji pacjenta (z obowiązkową akceptacją lekarza),
- wsparcie planowania pracy szpitala i zarządzania zasobami – od magazynu i łańcucha dostaw po długoterminowe prognozy,
- zaawansowane systemy epidemiologiczne, analizujące zagęszczenie przypadków w czasie i przestrzeni, generujące alerty dla mikrobiologii i kontroli zakażeń.
Organizacja, edukacja i zaufanie – trzy warunki sukcesu
Technologia to tylko część układanki. Rozmówcy podkreślają, że bez dostosowania organizacji, jej procesów, ról i kultury pracy – użycie AI może być wręcz niebezpieczne. Jeśli szpital pozostaje przy hybrydzie papier–system, wiele danych nigdy nie trafi do HIS, a modele będą działały na niepełnym, zafałszowanym obrazie.
Kluczowe są trzy elementy:
- Organizacja – przegląd procesów, rezygnacja z archaicznych rozwiązań, pełne przejście na elektroniczną dokumentację, zapewnienie integracji HIS z AI w obie strony.
- Edukacja – zarówno lekarzy, jak i personelu administracyjnego; trzeba nauczyć się „mówić do modelu”, korzystać z transkrypcji, rozumieć ograniczenia i odpowiedzialność.
- Zaufanie – budowane na realnych, powtarzalnych korzyściach i transparentności działania narzędzi.
Tutaj pojawia się ważne ostrzeżenie: „gdzie nie musisz – nie stosuj AI”. Nadmierne, bezrefleksyjne użycie jest równie groźne jak całkowite odrzucenie technologii. Z jednej strony mamy użytkowników, którzy „wierzą bezkrytycznie” i przestają weryfikować wyniki modelu, z drugiej – tych, którzy z zasady nie ufają AI i blokują wszystkie inicjatywy. Obie postawy uniemożliwiają wypracowanie dojrzałego, odpowiedzialnego wykorzystania sztucznej inteligencji.







