6 minute read

TECHNologIE I ZDRoWIE

Główne blokady rozwoju AI w zdrowiu i co możemy z nimi zrobić

Wiemy, że AI rewolucjonizuje medycynę i powinniśmy zrobić wszystko, aby polski sektor ochrony zdrowia nie został w tyle, a polscy pacjenci mieli dostęp do ratujących zdrowie i życie technologii. Powinniśmy rozwijać własne algorytmy medyczne bazujące na danych pochodzących od polskich pacjentów oraz dofinansowywać startupy zajmujące się AI. Nasze otoczenie regulacyjne powinno sprzyjać innowacjom, ale dopuszczać do obrotu tylko takie algorytmy, które są rzeczywiście bezpieczne i skuteczne dla pacjenta. Wreszcie, personel medyczny i pacjenci powinni być wyedukowani jak odpowiednio korzystać z pomocy AI. A jak jest w rzeczywistości?

Advertisement

LIGIA KORNOWSKA, Dyrektor Zarządzająca Polskiej Federacji Szpitali

dane medyczne, których realnie nie ma Sztuczna inteligencja jest oparta na danych, na których się uczy. �ak samo jak w evidence based medicine, medycynie opartej na faktach, proponowane przez AI diagnozy i leczenie powinny być oparte o badania i metadane. �ajwiększym i najważniejszym czynnikiem sprzyjającym rozwojowi algorytmów jest więc dostęp do danych. Cała Unia Europejska zastanawia się, jak zapewnić możliwość ponownego wykorzystywania danych medycznych z jednoczesnym poszanowaniem praw pacjenta i zachowaniem odpowiedniej ochrony danych osobowych. �� Polsce ten problem jest szczególnie dotkliwy. Zasady dostępu do cyfrowych danych medycznych w Polsce – w tym również zawartych w dokumentacji medycznej – są niejasne, rozproszone w różnych aktach prawnych i obarczone niespójnościami. �awet dostęp do danych anonimowych, które nie podlegają regulacjom RODO, jest wątpliwy. Przepis art. 26 ust. 4 Ustawy o prawach pacjenta i Rzeczniku Praw Pacjenta reguluje dostęp do dokumentacji w celach naukowych, a przez swój ogólny charakter i brak powiązania z terminologią wynikającą z RODO, może być interpretowany jako istotne ograniczenie kręgu podmiotów uprawnionych do dostępu do danych. Brakuje spójnych zasad w zakresie dostępu do danych w rejestrach medycznych czy w centralnych bazach instytucji publicznych, nawet jeśli dotyczy to danych anonimowych (np. danych zawartych na platformie P1). ��ydaje się, że potencjał projektów opierających się na przesłance ponownego wykorzystywania informacji sektora publicznego również nie został odpowiednio wykorzystany. Przyjęty w marcu br. program otwierania danych na lata 2021–2027 nie uznał danych medycznych za dane wysokiej wartości. �ie sprecyzował też zasad udostępniania danych medycznych. Być może powodem był ogólny, a nie sektorowy charakter regulacji. �ie zmienia to faktu, że wskazane działania są niewystarczające, aby realnie korzystać z anonimowych danych medycznych polskich pacjentów. Uzyskanie dostępu do medycznych danych osobowych jest jeszcze trudniejsze. Przetwarzanie zarówno danych osobowych, jak i pseudonimizowanych, od-

»Przyjęty w marcu br. program otwierania danych na lata 2021–2027 nie uznał danych medycznych za dane wysokiej wartości.«

bywa się zgodnie z RODO. ��ykorzystując dane do rozwoju algorytmów AI możemy mieć wątpliwości interpretacyjne dotyczące głównych zasad RODO, m.in. przejrzystości przetwarzania (nie zawsze wiemy, co się dzieje „wewnątrz” AI), określenia zakresu przetwarzania (AI może potrzebować dużych zbiorów danych, co rodzi trudności w zakresie oceny proporcjonalności przetwarzania danych) czy dalszego przetwarzania i zmiany celów przetwarzania (AI może wykorzystać te same dane do osiągnięcia innych celów, np. wykrywania kolejnych chorób, nieprzewidzianych na początku tworzenia AI). Problemem może być również podejmowanie przez algorytm autonomicznych decyzji istotnych dla pacjenta na podstawie danych sensytywnych tego pacjenta. Przetwarzając dane osobowe w celach badawczych i rozwojowych (B+R), w praktyce najczęściej opieramy się na zgodzie pacjenta. Obecnie badacz prowadzący badania naukowe pozyskuje zazwyczaj taką zgodę od pacjenta leczonego w danej klinice, w trakcie hospitalizacji, podsuwając mu dodatkowy formularz do podpisu w formie papierowej, a więc w warunkach niesprzyjających wyrażeniu dobrowolnej i świadomej zgody. �a podstawie tej zgody uzyskuje się dostęp do danych medycznych, które były wytworzone i przechowywane w danym podmiocie leczniczym. �aka procedura wydaje się zupełnie nie odpowiadać wymaganiom AI. Po pierwsze, zgody powinny być wyrażane elektronicznie, nie na papierze. Będzie to sprzyjało nie tylko transparentności zbierania zgód, ale także możliwości ich wykorzystania na większą skalę. Po drugie, zgód powinno być bardzo dużo, bowiem mogą pozwolić na uzyskanie dostępu do dużej ilości danych. Po trzecie, dane pozyskane na podstawie takiej zgody powinny być skompletowane i pochodzić z różnych źródeł, nie tylko z jednego podmiotu leczniczego. �iędzy innymi dlatego Polska Federacja Szpitali na czele szerszego konsorcjum rozwija projekt dawstwa danych, który zostanie omówiony w następnym artykule na łamach OSOZ Polska.

Jakość danych Interoperacyjność to kolejny kluczowy czynnik sprzyjający rozwojowi AI. Po zapewnieniu dostępu do danych przewidzianych do uczenia algorytmu, musimy mieć pewność, że owe dane są zrozumiałe dla tego algorytmu. Zrozumiałe, czyli ustrukturyzowane, łatwo agregowalne i przetwarzalne, otagowane i kompletne. �ajlepiej, aby dane były oznaczone piątym stopniem otwartości w skali 5-star open data, czyli żeby było możliwe łączenie ich z innymi danymi dla zapewnienia pełnego kontekstu. Polski prawodawca nie reguluje wszystkich aspektów interoperacyjności. Podobne problemy występują również w innych krajach Unii Europejskiej. �awet jeśli uda nam się pobrać dane medyczne pochodzące z różnych szpitali, ich format może znacząco różnić się od siebie, praktycznie uniemożliwiając prace nad nimi. Oprócz kwestii technicznych, pozostaje problem aktualności i poprawności danych. Czas rozpoznania choroby, odpowiednio zakodowana w ICD-9 i ICD-10 choroba i procedura, otagowanie badań i opisy zgodne ze standardami – wszystkie te informacje zależą od rzetelności osoby wprowadzającej je do systemu, a jeśli są zafałszowane, to mogą prowadzić do powstania algorytmu, którego skuteczność będzie znacząco niższa niż deklarowana podczas treningu i testów.

doktor Ai w sądzie Udało nam się zapewnić dostęp do dobrej jakości danych, rozwinęliśmy algorytm. ��ypróbowaliśmy go na testowym zbiorze danych, jego czułość i swoistość okazały się wystarczająco wysokie, by wspierał decyzje diagnostyczno-lecznicze w procesie udzielania świadczeń medycznych. Każdy wyrób medyczny stosowany w procesie diagnostyki i leczenia powinien uzyskać certyfikację CE, a jego klasa zależy m.in. od inwazyjności dla zdrowia pacjenta.

Obecnie jednak nie ma określonej ścieżki regulacyjnej dla wyrobów medycznych opartych na AI/�L (sztucznej inteligencji/uczenia maszynowego) w USA i Europie, a procedury standardowej certyfikacji wydają się być niewystarczające dla tak zaawansowanych technologii, jaką jest AI. Co więcej, obecnie znakomita większość europejskich algorytmów jest certyfikowana w najniższych klasach, które cechują mniej restrykcyjne zasady certyfikacji. �oże się zatem okazać, że czułość i swoistość deklarowana przez twórcę algorytmu jest w rzeczywistości istotnie niższa, jednocześnie jesteśmy w stanie zweryfikować to dopiero w rzeczywistym procesie diagnostyczno-leczniczym. Żaden lekarz nie jest w stanie zapewnić nam 100% skuteczności w diagnozie i leczeniu. �ego samego nie jest w stanie zapewnić także najdoskonalszy algorytm AI. �ie jest jasne, kto bierze odpowiedzialność za błąd algorytmu AI. �� dokumentach prezentowanych przez Komisję Europejską proponuje się odpowiedzialność dzieloną pomiędzy twórcą wyrobu medycznego a podmiotem wprowadzającym go do obrotu, nie jest to jednak prawo wiążące. Brak ustalenia strony odpowiedzialnej za wyniki algorytmu może być niewygodny w przypadku, kiedy algorytm wspiera decyzje ostatecznie podejmowane przez lekarza. Staje się jednak absolutnie krytyczny przy wprowadzeniu do obrotu algorytmów, które bez asysty lekarza podejmują wiążące dla pacjenta decyzje. �akich algorytmów jest mniejszość, ale już są stosowane. Spójnych regulacji prawnych w tym obszarze nadal brakuje.

Współpraca międzynarodowa i interdyscyplinarna Przy rozwoju sztucznej inteligencji w medycynie kluczowa jest współpraca specjalistów z różnych dziedzin oraz działania podejmowane na poziomie ponadkrajowym. Polska bierze udział w dyskusjach prowadzonych przez Unię Europejską, m.in. mając przedstawicieli w grupie AI �igh Le�el Expert Group czy �owards European �ealth Data Space. Jednocześnie powstała grupa ds. sztucznej inteligencji, sekcja ds. zdrowia przy KPR�, która ma wypracować strategię AI w zdrowiu oraz opisać odrębności sektora. Po uregulowaniu najpilniejszych kwestii – dostępu do danych, jakości tych danych oraz odpowiedzialności AI – kolejnymi działaniami powinny być: edukacja personelu i pacjentów oraz zaangażowanie towarzystw naukowych do wypracowania standardów korzystania z AI przez profesjonalistów medycznych. Przed nami dużo do zrobienia i musimy mieć pewność, że Polska nie zostanie w tyle w tym wyścigu innowacji. 

lek. ligia Kornowska – lekarz, dyrektor zarządzająca Polskiej Federacji Szpitali, organizacji zrzeszającej największą liczbę szpitali w Polsce. Propagatorka aI w medycynie, liderka Koalicji aI w zdrowiu. Wyróżniona na liście Forbesa „25 under 25” w kategorii „Biznes” oraz na liście „100 najbardziej wpływowych osób w ochronie zdrowia” 2019 i 2020. Była CEO/dyrektor kilku startupów medycznych. Prelegentka i moderator licznych konferencji sektora ochrony zdrowia o zasięgu krajowym i międzynarodowym. Strona internetowa „Koalicji aI w zdrowiu”: www.aiwzdrowiu.pl. Bibliografia dostępna u autora.

W Polsce powstała grupa ds. sztucznej inteligencji, sekcja ds. zdrowia przy KPRM, która ma wypracować strategię AI w zdrowiu oraz opisać odrębności sektora ochrony zdrowia.

This article is from: