Podczas niedawnego posiedzenia stałej podkomisji ds. sztucznej inteligencji, zastanawiano się m.in. w jaki sposób stworzyć system refundacji stosowania nielekowych technologii cyfrowych wykorzystujących sztuczną inteligencję, aby poprawić organizację systemu ochrony zdrowia i opieki zdrowotnej społeczeństwa w Polsce. A także jak oceniać wartość sztucznej inteligencji w ochronie zdrowia? Biorąca udział w obradach podkomisji dr hab Katarzyna Kolasa, profesor Akademii Leona Koźmińskiego, przedstawiła prezentację, w której podała m.in. przykład pierwszego algorytmu, który uzyskał finansowanie publiczne w USA. Jest to algorytm, który przyczynia się do skrócenia czasu diagnostyki pacjentów z udarem. Jak się okazuje, producent tej technologii otrzymuje ponad 1 tys. dolarów za każdego pacjenta, który został zdiagnozowany przy pomocy tego rozwiązania, a mimo to, wykorzystanie tego narzędzia przekłada się na oszczędności dla systemu ochrony zdrowia. W USA, aby uzyskać dofinasowanie dla tego typu rozwiązań bierze się pod uwagę trzy parametry: Innowacyjność: bada się czy nowa technologia nie jest "istotnie podobna" do poprzednich lub istniejących technologii. Wyższość: sprawdza się czy rozwiązanie zapewnia znaczną poprawę kliniczną w porównaniu z istniejącymi opcjami. Minimalny próg kosztów: pociąga za sobą wystarczające dodatkowe wydatki kapitałowe lub operacyjne, aby uzasadnić dodatkową płatność. "Aby wdrożenia takich rozwiązań miały sens, najważniejsza nie jest tylko kwestia innowacji i przygotowania algorytmu, ale także pilotażu" - zaznaczyła Katarzyna Kolasa. Ekspertka podała kolejny amerykański przykład - Mayo Clinic - która wykorzystuje algorytm definiujący jak postępować z pacjentem przyjmowanym do szpitala, aby zmniejszyć ryzyko rehospitalizacji czyli nieplanowanego ponownego przyjęcia do szpitala. Model ten jest zdolny do wygenerowania 26 możliwych rekomendacji postępowania dla personelu medycznego, ale zanim wdrożono go na stałe, został poddany właśnie półrocznemu pilotażowi, obejmującemu m.in. szkolenie personelu. Jak oceniać wartość sztucznej inteligencji w ochronie zdrowia? Zespół Badawczy AIValue4Health - stworzony przez naukowców Akademii Leona Koźmińskiego i działający we współpracy z Centralnym Ośrodkiem Innowacji i Kształcenia Naczelnej Izby Lekarskiej, pod patronatem Komisji Cyfryzacji, Innowacyjności i Nowoczesnych Technologii Sejmu RP - którego członkinią jest Katarzyna Kolasa, przygotował rekomendacje w sprawie zasad oceny wartości AI w zdrowiu. Publikujemy je poniżej: Aspekty kliniczne Wsparcie dla lokalnej oceny klinicznej rozwiązań AI. Ocena kliniczna AI w odniesieniu do złotego standardu postępowania medycznego. Stworzenie warunków wykazywania bezpieczeństwa i skuteczności AI w ramach rzeczywistej praktyki klinicznej; wykazanie skuteczności powinno wpływać na mechanizmy finansowania. Aspekty etyczne Przejrzystość i jednoznaczność definicji. Transparentne, obiektywne i odpowiedzialne przedstawienie AI warunkiem ich powszechnego udostępniania. Wdrażanie AI zwłaszcza w obszarach wymagających wysokiej precyzji terapii. Odpowiedzialność człowieka za decyzje podejmowane przez algorytm. Bezpieczeństwo danych i ich odpowiedzialne wykorzystanie. Aspekty ekonomiczne Stopniowe wdrażanie ocen ekonomicznych. Ocena ekonomiczna potrzebna zwłaszcza szpitalom. Ocena ekonomiczna musi odnosić się do całego procesu postępowania z chorym. Należy przewidzieć szybkie ścieżki oceny dla technologii przełomowych. Należy dostosować metody ekonomicznej oceny diagnostycznych rozwiązań AI. Aspekty organizacyjne Udział pacjentów w tworzeniu rozwiązania AI. Technologia AI jest produktem komercyjnym czy non-profit? Aspekty właścicielskie i prawa własności intelektualnej. Dodatkowe korzyści z wykorzystania technologii AI. Plan kontrolowania zmiany technologii AI. Podejście społeczeństwa do AI w opiece zdrowotnej Ponadto przedstawiciele zespołu AIValue4Health przeprowadzili w zeszłym roku szereg badań, z których wynika, że polskie społeczeństwo jest otwarte na rozwiązania sztucznej inteligencji - 55% ankietowanych wskazało, że w przypadku choroby zdecydowałoby się skorzystać z usług wirtualnego narzędzia diagnostycznego. Z kolei 90% respondentów jest gotowych korzystać z opaski czy aplikacji rekomendowanej przez lekarza rodzinnego, a mającej monitorować zdrowie. Jednocześnie ankietowani mają świadomość możliwych zagrożeń płynących z użytkowania sztucznej inteligencji. Więcej niż 60% respondentów uznało że: byłoby wskazane utworzenie komitetów do zarządzania danymi, które nadzorowałyby badania związane z technologią sztucznej inteligencji oraz monitorowały procesy wprowadzania danych, przetwarzania i wyniki wdrożenia AI w kontekście ich dokładności, bezpieczeństwa i jakości; sztuczna inteligencja powinna być testowana pod kątem skuteczności w rzeczywistych interwencjach klinicznych; powinniśmy badać, ile kosztuje wprowadzenie AI w medycynie, na przykład poprzez przetestowanie tych narzędzi w szpitalach, aby dowiedzieć się, jakie są koszty działania AI w praktyce. We współpracy z z Naczelną Izbą Lekarską przeprowadzono również badanie ankietowe dotyczące preferencji lekarzy, bez których nie ma możliwości przeprowadzenia udanej cyfryzacji w ochronie zdrowotnej. Z badania tego wynika, że: 69% respondentów obecnie nie korzysta z technologii AI, ale są otwarci na wprowadzenie takich rozwiązań; 75% ankietowanych jest zainteresowanych szkoleniami w zakresie wykorzystania technologii AI w ochronie zdrowia; 57% lekarzy uważa, że wykorzystanie technologii AI w pracy zmniejszy ilość błędów diagnostycznych; 68% respondentów uważa że wykorzystanie technologii AI zwiększy efektywność pracy lekarza; 75% ankietowanych za największą korzyść z wykorzystania technologii AI wskazuje sprawniejszą diagnostykę i wspomaganie decyzji klinicznych. "Systemy ochrony zdrowia na świecie nie są jeszcze gotowe na sztuczną inteligencję, bo nie ma jeszcze gotowych systemów walidacji tych rozwiązań. Z ponad 10 tys. algorytmów opartych na AI, które są już dostępne do leczenia, tylko 100 zostało przebadanych podczas badań klinicznych. Już nie długo w USA zostanie przygotowany draft legislacji w tym zakresie - mamy również inne kraje, które podążają tą ścieżką rozwoju legislacyjnego (Niemcy, Francja), ale jesteśmy dopiero na początku tej drogi. W moim przekonaniu krajowe rozwiązania legislacyjne powinniśmy tworzyć właśnie w duchu międzynarodowej współpracy, mając na uwadze, że badania kliniczne, które będą generowane na rzecz rozwiązań opartych o AI, będą miały wymiar wielokulturowy" - stwierdziła Katarzyna Kolasa. "Niezależnie natomiast jak stworzymy legislacje, musimy udostępnić dane polskich pacjentów do przetestowania tych rozwiązań. Bowiem nawet jeśli dostaniemy dostęp do algorytmów mających spektakularne efekty zagranicą, to niekoniecznie takich samych efektów możemy spodziewać się w Polsce. Mamy przecież zupełnie inny system ochrony zdrowia" - podsumowała. Podczas wspomnianego posiedzenia padła również propozycja powołania grupy roboczej przedstawicieli różnych środowisk, której celem byłoby przygotowania rekomendacji na rzecz zapewnienia bezpiecznego dostępu do technologii opartych na sztucznej inteligencji.