Sztuczna inteligencjaCIOPolecane tematy

Longevity, dane i AI: jak Diagnostyka tworzy nowy kontekst naszego zdrowia

Z Jaromirem Pelczarskim, wiceprezesem zarządu i CTO w Diagnostyce rozmawiam o: nowej wersji aplikacji mobilnej, a także znajdujących się w niej profilaktometrze i asystentce AI LiDia oraz planach dodania do aplikacji informacji pobieranych z urządzeń wearables; profilaktyce prozdrowotnej; kolejnych etapach cyfrowej transformacji Diagnostyki, w tym wdrożeniu w pełni chmurowego systemu klasy LIS; a także konieczności ustandaryzowania wymiany danych w sektorze zdrowia.

Longevity, dane i AI: jak Diagnostyka tworzy nowy kontekst naszego zdrowia
Fot. Iwaszko Fotografia

Nawiążę do Twojej wcześniejszej pracy w sektorze bankowym. Jaka jest Twoim zdaniem różnica między FinTech’ami a MedTech’ami?

Te pierwsze czynią nasze życie bardziej wygodnym. Natomiast te drugie lepszym. I to jest fundamentalna różnica między sektorem, w którym kiedyś pracowałem i tym obecnym.

W branży finansowej nasze potrzeby są też dość proste. Natomiast wszystko, co jest związane z naszym zdrowiem, to są sprawy wagi egzystencjalnej. Tutaj musisz działać na innym poziomie wrażliwości. Nie wystarczy SLA. Może po prostu okazać się, że nie ma „później”.

Branża MedTech musi skupić się na uważnym podejściu do danych; do tego co one znaczą; czym jest błąd, który może się w nich pojawić i co oznacza późniejsze ich dostarczenie. Rozwiązania w tej branży będą szybko ewoluować. Wciąż wiele projektów przed nami.

Dużo mówi się dziś w medycynie o wykorzystaniu narzędzi AI do analizy wyników badań, a więc tego, co Diagnostyka robi każdego dnia. Wykorzystujecie już w Waszej pracy algorytmy AI?

Z AI korzystamy w wielu obszarach. Wiele pomysłów testujemy. Część z nich weszła na produkcję, np. diagnostyce obrazowej. Jeden z nich realizujemy wspólnie z francuską firmą Gleamer. Tworzy ona rozwiązania AI wspierające obrazowanie medyczne, głównie w radiologii. Druga firma, koreańska Coreline Soft, z którą współpracujemy specjalizuje się z kolei w analizie obrazów tomografii komputerowej.

Nowa funkcja naszej aplikacji – Profilaktometr – pokazuje on to, jak „dobrze jesteśmy przebadani” w 8 rekomendowanych obszarach, np. serce. Proponowane zestawy badań i częstotliwość ich wykonania dostosowane są do indywidualnych cech pacjentów.

Swoją drogą oba rozwiązania powstały – z tego co wiem – bez gigafabryki AI, których budowę planuje Unia Europejska, w tym Polska. Moim zdaniem, brakuje u nas nie infrastruktury IT, ale czegoś, co ma fundamentalne znaczenie na tamtejszych rynkach. Rządy Francji i Korei Południowej nie skupiają się wyłącznie na budowie infrastruktury na potrzeby rozwiązań AI. Starają się za to promować tamtejsze rozwiązania na całym świecie.

W Polsce zaś mamy ewidentny problem z tym, w jaki sposób wykorzystać posiadany w naszym kraju kapitał intelektualny.

Uruchomiliście także nową aplikację mobilną Diagnostyka+, która w znaczniej mierze korzysta z algorytmów AI.

Jest bardzo ważnym elementem tego, jak chcemy zwiększać świadomość Polaków na temat diagnostyki. Statystyki pokazują, że Polacy badają się 6 razy rzadziej niż wynosi średnia europejska. Jako lider rynku badań laboratoryjnych – który obsługuje łącznie, w ciągu roku 25 mln pacjentów, choć oczywiście część z nich przychodzi wielokrotnie – chcemy pomagać Polakom dbać o zdrowie i żyć w zdrowiu.

W 2024 roku wprowadziliśmy na rynek pierwszą wersję naszej aplikacji Diagnostyka+. Wówczas dawała ona jedynie możliwość zobaczenia wszystkich, wykonanych badań w naszej sieci diagnostycznej. W listopadzie 2025 roku wprowadziliśmy jej nową wersję.

W jej ramach udostępniamy m.in. funkcję Profilaktometr. Pokazuje on to, jak „dobrze jesteśmy przebadani” w 8 rekomendowanych obszarach (m.in. serce, wątroba czy trzustka). Co ważne, proponowane zestawy badań i rekomendowana częstotliwość ich wykonania dostosowane są do indywidualnych cech pacjentów. Dzięki profilaktometrowi możemy sprawdzić, w jakim procencie wykonaliśmy rekomendowaną dla nas diagnostykę.

Nasza asystentka AI – LiDia. Działa w bardzo odpowiedzialny sposób, oparty na koncepcji Retrieval-Augmented Generation. Bazuje na danych własnych – z prawie 200 mln badań przeprowadzanych rocznie w sieci naszych laboratoriów dostosowując kontekst do pacjenta.

W nowej wersji aplikacji Diagnostyka+ przebudowaliśmy zupełnie model wizualizacji wyników, tak, aby były one bardziej czytelne oraz łatwe i szybkie do zobrazowania naszego stanu. Pacjentom udostępniamy też moduł interpretacji wyników badań oparty o algorytmy AI. Przygotował i wytrenował wspólnie z nami nasz partner – firma Labplus.

Aplikacja Diagnostyka+ ma pomagać tworzyć zdrowy nawyk regularnych badań profilaktycznych i wspierać pacjenta na etapach ich planowania, wykonania i odbioru, ale nie zastępować lekarza.

Wiele osób podejmuje dziś próbę postawienia diagnozy przez Internet, na podstawie objawów, które im towarzyszą. Od teraz nie będą musieli prosić o pomoc „Dr Google”?

Dr Google odpowiada w całkowicie nieskorelowanej przestrzeni. Tymczasem wiele schorzeń objawia się tymi samymi symptomami. Przeczytane porady mogą więc być nieadekwatne do tego, co nam dolega.

W naszej aplikacji interpretacja wyników jest związana z indywidualnymi informacjami dotyczącymi konkretnego pacjenta. Oparta jest o jego wyniki badań oraz krótką ankietę oceniającą m.in. aktualny stan zdrowia.

Warto jednak podkreślić, że aplikacja Diagnostyka+ nie ma zastąpić lekarza. Ma jedynie pomóc zrozumieć cel i znaczenie poszczególnych badań i ich wyników.

Z aplikacją Diagnostyka+ można też porozmawiać.

Trzecia nowość w aplikacji to właśnie asystentka AI – LiDia. Działa w bardzo odpowiedzialny sposób, oparty na koncepcji RAG (Retrieval-Augmented Generation – przyp. red.). Co warto podkreślić LiDia bazuje na danych własnych – z prawie 200 mln badań przeprowadzanych rocznie w sieci naszych laboratoriów dostosowując kontekst do danego pacjenta.

Jeśli ktoś po analizie swoich badań będzie miał dodatkowe pytania – np. „Dlaczego boli mnie głowa?” albo „Czemu kolejny dzień czuję się słaby?” – to LiDia zasugeruje możliwe powody. Będzie też mogła sama zadać dodatkowe pytania oczywiście analizując cały kontekst, o którym wspomniałem. Może też zasugerować dodatkowe badanie, które można od razu kupić w sklepie w naszej aplikacji. To kolejna nowość do niej wprowadzona.

W MedTech widać złożoność algorytmów AI. Przestrzeń językowa obsługiwana przez LLM jest zamknięta i prostsza do analizowania. W histopatologii, czy szerzej diagnostyce obrazowej, sprawa jest bardziej skomplikowana, a dane, na których bazujemy – selektywne.

Wszystkie te cztery funkcje: profilaktometr, interpretacja AI, asystentka LiDia i sklep to spora zmiana w porównaniu do pierwszej wersji naszej aplikacji i bardzo konkretna wartość, jaką udostępniamy pacjentom.

Wykorzystywana w naszych rozwiązaniach sztuczna inteligencja została przeanalizowana krytycznie przez naszego Chief Medical Officera oraz lekarzy, diagnostów i specjalistów zatrudnionych w Diagnostyce. Oni stworzyli 8 bloków badań profilaktycznych. Uczyli również LiDię tego, w jaki sposób zadawać pytania i na co zwracać uwagę po otrzymaniu odpowiedzi. Nasi pracownicy uczestniczyli z kolei w budowaniu modelu RAG. Łącznie daje to fantastyczną, zamkniętą w kontekście naszej oferty i naszych danych, ofertę dla pacjentów.

Wykorzystywany w aplikacji Diagnostyka+ model AI został zbudowany przez Was? Czy może korzystaliście z gotowych, jedynie dotrenowanych narzędzi sztucznej inteligencji?

Model dotyczący interpretacji wyników badań dostarczył nam nasz partner Labplus. Z kolei LiDia jest w pełni autorskim rozwiązaniem. To nie jedyny, stworzony przez nas model AI.

W histopatologii model analizowania wskazówek mówiących o podejrzeniu raka prostaty to wynik naszych badań. Zostały one zresztą opisane w tygodniku Nature. W projekcie tym uczestniczyli też naukowcy z Akademii Górniczo-Hutniczej.

Ale działamy też w modelu hybrydowym. Wcześniej wspomniałem o dostawcach diagnostycznych modeli AI – firmach Gleamer i Coreline Soft.

Jak porównać te modele do tak popularnych dziś Large Language Models?

W MedTech bardzo wyraźnie widać złożoność algorytmów AI. W przypadku dużych modeli językowych LLM praktycznie każdy jest dziś specjalistą. Przestrzeń językowa jest jednak zamknięta i prostsza do analizowania. W histopatologii, czy szerzej diagnostyce obrazowej, sprawa jest dużo bardziej skomplikowana, a dane, na których bazujemy – selektywne.

Tkanka pobrana do badania musi być odpowiednio nacięta. Musi też być w specjalny sposób zabarwiona. Grubość cięcia i struktura zabarwienia rzutują w sposób fundamentalny na to, w jaki sposób algorytmy AI podchodzą do analizy takiej próbki. To jest bardzo trudne do przeprowadzenia na odpowiednio wysokim poziomie wiarygodności.

W 2026 roku chcemy podłączyć do aplikacji Diagnostyka+ dane z urządzeń typu wearables, z których coraz powszechniej korzystamy. Rozumiem przez zarówno takie urządzenia, jak elektroniczne pierścionki, opaski czy zegarki, ale też wagi czy czytniki poziomu insuliny.

Warto pamiętać, że medycyna to swego rodzaju sztuka oparta na ciągłym doskonaleniu. Jeśli zmienia się stosowana technologia i podejście do skanowania próbek, to zmienić muszą się też modele AI.

Mówiłeś, że LiDia będzie oparta o model hybrydowy. Czy to znaczy, że będziecie korzystać zarówno z własnych narzędzi, jak i z tych publicznie dostępnych?

Do oceny wyników badań korzystamy z predefiniowanych modeli stworzonych przez naszych lekarzy. LiDia ma użytkownikowi przekazać konkretne odpowiedzi. Nie może więc abstrahować od wyników badań. Nie chcemy też, aby odsyłała do informacji niezweryfikowanych przez lekarzy. Jest to nasze, unikalne rozwiązanie.

Dodatkowo zaś korzystamy z modeli LLM, które pozwalają pacjentom na komunikowanie się językiem naturalnym. Aplikacja Diagnostyka+ ma być narzędziem dla wszystkich.

Jaki jest cel dodatkowych funkcji wprowadzonych do Waszej aplikacji?

Chcemy przede wszystkim zachęcać do dbania o swoje zdrowie.

Jest to też związane z wizją naszego prezesa, prof. Jakuba Swadźby. Jest on orędownikiem idei longevity, innymi słowy „zdrowowieczności”. Oznacza to takie nasze funkcjonowanie, aby żyć długo i zdrowo. Nasza aplikacja pozwala monitorować to w sposób wygodny. Dlatego też nie chcemy przeładować jej informacjami, np. o liczbie kalorii liczonych w oparciu o zdjęcia potrawy, którą spożywamy.

Naszą ideą jest to, aby dzięki aplikacji Diagnostyka+ użytkownik czuł się pewniej. Nie ma go straszyć, czy zabraniać czegokolwiek. Ma jedynie pokazywać pewne rzeczy. Tym bardziej, że motywacją do zrobienia badań jest albo nasza ciekawość, albo konkretna potrzeba.

Wróciłbym do funkcji aplikacji Diagnostyka+. Szykujecie kolejne?

W 2026 roku chcemy podłączyć do aplikacji Diagnostyka+ dane z urządzeń typu wearables, z których coraz powszechniej korzystamy. Rozumiem przez zarówno takie urządzenia, jak elektroniczne pierścionki, opaski czy zegarki, ale również wagi elektroniczne czy czytniki poziomu insuliny. Dzięki temu kontekst naszego zdrowia stanie się pełniejszy.

Dane w sektorze medycznym nie są dziś wymieniane. Gdyby tak się stało dokonalibyśmy przełomu. Moglibyśmy oferować zupełnie innej klasy rozwiązania. Jednocześnie zaś branża medyczna to sektor, w których dziś najszybciej następuje wykorzystanie różnych technologii.

Także w roku 2026 chcemy wprowadzić do naszej aplikacji informacje z diagnostyki obrazowej. Dziś często z badania rezonansu magnetycznego lub tomografii otrzymujemy na płytce CD. Z nią dopiero idziemy do lekarza specjalisty. Chcemy to zmienić i przenieść te informacje do naszej chmury, aby móc je w ten sposób przechowywać i udostępniać.

Z udostępnianiem danych medycznych mamy dziś w Polsce spory problem.

W trakcie dopracowywania jest model, w jakim pacjent będzie mógł to zrobić w sposób dla niego jak najbardziej bezpieczny i komfortowy. Dodatkowo to on ma decydować kto ma wgląd w wyniki badań.

Temat współdzielenia danych w branży medycznej jest na zupełnie innym poziomie dojrzałości niż, to z czym miałem do czynienia pracując w bankach. Musimy uwzględnić aspekty szeregu regulacji europejskich np. dotyczących European Health Data Space.

W bankach rozwiązano problemy związane z wymianą danych m.in. za pomocą – wprowadzonych w tym sektorze – wspólnych standardów. Dziś możliwa jest kompletna analiza ryzyka klienta bazująca na danych z wielu instytucji. Mamy też w praktyce wdrożoną ideę open banking dzięki dyrektywie PSD2.

W pełnej ocenie naszego stanu zdrowia brakuje zaś podobnych regulacji. Nie ma możliwości, aby w tej chwili mieć – jak w sektorze finansowym – tzw. widok 360 stopni na pacjenta. Lekarz ma dostęp tylko do wycinkowych informacji, zazwyczaj tych które zleciła jego placówka.

Dane w sektorze medycznym nie są dziś wymieniane. Gdyby tak się stało dokonalibyśmy swego rodzaju przełomu. Moglibyśmy oferować zupełnie innej klasy rozwiązania. Jednocześnie zaś branża medyczna to sektor, w których dziś najszybciej następuje wykorzystanie różnych technologii.

Będziecie rozwijać kolejne modele diagnostyczne?

Pracujemy ze szpitalami, którym dostarczamy usług. Mamy podpisane z nimi różnego rodzaju partnerstwa. Pomagają nam rozwijać poszczególne obszary działania. Tak samo jest z uczelniami, m.in. Akademią Górniczo-Hutniczą czy Uniwersytetem Jagiellońskim.

Pacjentom udostępniamy moduł interpretacji wyników badań oparty o algorytmy AI. Przygotowała i wytrenowała wspólnie z nami firma Labplus. Aplikacja Diagnostyka+ ma pomagać tworzyć zdrowy nawyk regularnych badań profilaktycznych i wspierać pacjenta na etapach ich planowania, wykonania i odbioru, ale nie zastępować lekarza.

Nasza współpraca skupiona jest wokół konkretnych problemów, zadań i aktualnych tematów, którymi się zajmujemy. Diagnostyka ma pięć obszarów działania: diagnostykę laboratoryjną, diagnostykę obrazową, histopatologię, genetykę i diagnostykę kompleksową – longevity.

Każdy z nich związany jest z bardzo intrygującymi wyzwaniami, w których rozwiązaniu może wesprzeć nas m.in. sztuczna inteligencja.

Czy na bazie 200 mln badań, które co roku wykonujecie można wysunąć wnioski o trendach zdrowotnych w polskim społeczeństwie?

Jak najbardziej. Byliśmy też mocno zaangażowani w – realizowany przez resort zdrowia – program 40+. On też dostarcza danych o stanie zdrowia Polaków.

Myślę, że to jest ten obszar, który będzie bardzo mocno eksploatowany, ale z zupełnie inną wizją ekonomiki danych medycznych. Nie w ujęciu ich sprzedaży, ale takiej monetyzacji, która dostarczy wartości dla nas wszystkich.

Jakie jeszcze projekty transformacyjne przed wami? Mówiłeś o tym nowym systemie zarządzania laboratoriami.

To jest bardzo ciekawy projekt. Każda branża ma swój core system. W naszym przypadku są to rozwiązania klasy LIS (Laboratory Information System – przyp. red.). Łączą one ze sobą kilka, różnych obszarów technologicznych – od IoT, poprzez obrazowanie, po pewne, wręcz mechaniczne systemy. Wszystko to wymaga bardzo konkretnej wiedzy medycznej. Obecnie korzystamy z rozproszonego systemu w wersji on-premise.

Przy tej skali działania podjęliśmy decyzję, że musimy ten system przebudować, aby podołał szybkiemu powiększaniu skali działania Diagnostyki. Ma być też uniwersalnym środkiem do łączenia różnych obszarów biznesowych. Wszystkie znajdujące się w nim dane zostałyby zamknięte w jednym, prostym ekosystemie dla dobra pacjentów.

W 2026 roku zaimplementujemy jego podstawową część we wszystkich laboratoriach w Polsce. Opracowaniem jego architektury, rozwojem i utrzymaniem zajmuje się kilkudziesięcioosobowy, wewnętrzny zespół.

Nowy system LIS nie powstaje jednak przez skupienie się na rozwoju i optymalizacji jego funkcji tylko przez osoby z IT. W pracach nad nim biorą udział nasi laboranci, lekarze i specjaliści z innych obszarów. Patrzą na niego przez pryzmat funkcjonalności, obsługi całych procesów, ale także integracji różnych technologii, np. dostarczanych nam przez naszych partnerów linii diagnostycznych.

Nowy system LIS będzie swego rodzaju przełomem. Jest to bardzo duża inwestycja, która ma przede wszystkim uprościć pracę naszych koleżanek i kolegów, którzy realizują wspomniane 200 mln badań rocznie. Co warto podkreślić system ten będzie w całości funkcjonował w chmurze obliczeniowej. Naszym partnerem w tym projekcie jest Google Cloud.

Nowy system LIS będzie też mógł współpracować z systemami szpitali klasy HIS (Hospital Information System – przyp. red.). Choć w Polsce nie jest to łatwe. Nawet nazwy badań nie są ustandaryzowane. Już to pozwoliłoby nam wiedzieć, które badania faktycznie zlecił lekarz.

W bankowości lata temu powstawały wspólne słowniki, np. komunikaty SWIFT MT101. Warto byłoby wprowadzić odpowiedzialną wymianę danych między szpitalami, firmami diagnostycznymi i aptekami.

Co Wam daje chmura publiczna?

Dla nas to przede wszystkim kwestia elastyczności technologii związanej z rozwojem naszego, nowego systemu LIS i szybki dostęp do zasobów. Chmura jest nam potrzebna do szybkiej przebudowy core systemu.

Równolegle, o czym informowaliśmy w czasie debiutu na Giełdzie Papierów Wartościowych, podjęliśmy decyzję o wdrożeniu systemu SAP, który połączy całą sferę wewnętrznego funkcjonowania. Jest to dla nas niesamowicie ważnym elementem działania. System SAP też będzie funkcjonował w chmurze. Obecnie nie można go de facto kupić w innym modelu.

Nie wykluczam jednak, że w przyszłości z chmury obliczeniowej wyjdziemy. Teraz pozwala nam po prostu szybciej się modernizować.

Tagi

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *