n owe idee
E -zdrowie n a ś wiecie
WebMD
Harvard Business Review
How AI is Transforming Health Care
Adopting AI in Health Care Will Be Slow and Difficult
Jak AI transformuje ochronę zdrowia
Adaptacja sztucznej inteligencji w ochronie zdrowia będzie trudna i długotrwała
Szpitale i gabinety lekarskie zbierają szereg danych o swoich pacjentach. Dzisiaj większość z nich znajduje się gdzieś lokalnie na serwerze i nie jest wykorzystywana w większym zakresie niż tylko do podejmowania pojedynczych decyzji dotyczących danego pacjenta. Ale powoli się to zmienia wraz z tym, jak rosną możliwości wymiany danych i ich przetwarzania przez algorytmy AI. „Już dziś zdrowie pacjentów jest analizowane przez AI. Ale nie zawsze jesteśmy tego świadomi” – mówi Chris Coburn, dyrektor ds. Innowacji w Partners HealthCare System, sieci szpitali z Bostonu. AI pomogła dotychczas działom administracyjnym w rozliczeniach i lepszym wykorzystaniu zasobów placówek. Ale komputery wciąż doprowadzają wielu lekarzy i pacjentów do szaleństwa. Powodem jest czas spędzany na żmudnym wprowadzaniu danych, który kradnie cenne minuty na interakcję z pacjentem. Prawdą jest, że AI wchodzi do różnych obszarów działalności szpitali, pozostając na marginesie, jeżeli mówimy o bezpośredniej obsłudze pacjenta. Zwolennicy nowych technologii twierdzą, że dzięki AI będziemy mogli wcześniej diagnozować raka i opracowywać szybciej nowe leki. Systemy przetwarzające naturalny język na pismo pozwolą lekarzom wyrzucić klawiatury. Czujniki do noszenia i analiza danych zaoferują wgląd w stan zdrowia pacjentów w czasie rzeczywistym. AI ma jednak swoje ograniczenia. Są tacy, którzy obawiają się, że digitalizacja medycyny będzie kosztować ludzi ich pracę. Na przykład, gdy komputery będą w stanie interpretować obrazy medyczne dokładniej niż radiolodzy. Rosną pytania dotyczące prywatności danych w analizach Big Data. Nawet usuwając dane pacjenta (de-personalizacja), identyfikacja jest nadal możliwa na podstawie indywidualnych informacji genetycznych połączonych z miejscem zamieszkania. Sztuczna inteligencja jest ponadto głodna danych. Podczas gdy dziecko rozpoznaje różnicę między kotem a psem obserwując garść przykładów, algorytm potrzebuje 50000 punktów danych. Informatycy tworzący algorytmy cyfrowe mogą również nieumyślnie wprowadzić elementy dyskryminujące niektóre grupy osób.
34
OSOZ Polska 1/2020
Sztuczna inteligencja, w tym uczenie maszynowe, oferuje zupełnie nowe możliwości, w tym kuszące perspektywy szybszego, dokładniejszego podejmowania decyzji klinicznych i przyspieszenia badań naukowych. Jednak nadal wiele kwestii dotyczących wartości klinicznej zastosowania AI pozostaje zagadką. Także rozwiązania prawne blokują rozwój niektórych innowacji w tej dziedzinie. To powoduje, że zarówno twórcy technologii, jak i potencjalni inwestorzy zmagają się z problemem wdrażania AI do codziennej praktyki. Wyzwań jest sporo. We wrześniu, Amerykańska Agencja ds. Żywności i Leków (FDA) opublikowała „Politykę w zakresie funkcji oprogramowania i mobilnych aplikacji medycznych”. To seria dokumentów zawierających wytyczne opisujące, w jaki sposób agencja planuje regulować oprogramowanie wspomagające podejmowanie decyzji klinicznych (CDS), w tym oprogramowanie wykorzystujące algorytmy. Również od tego roku mobilne aplikacje zdrowotne podlegają w Europie certyfikacji analogicznej do urządzeń medycznych. Jednym z wyzwań, które należy wziąć pod uwagę, jest fakt, że systemy terapeutyczne lub diagnostyczne oparte na AI, z natury będą nadal ewoluować: oprogramowanie będzie aktualizowane i zmieniane w czasie, pojawią się nowe funkcje, algorytm będzie się rozwijał. Jak ten proces ewolucji uchwycić w ramach prawnych i monitorować, aby zapewnić bezpieczeństwo stosowania? Oprócz bieżącej niejednoznaczności regulacyjnej, kolejnym kluczowym zagadnieniem stanowiącym wyzwanie w adaptacji aplikacji AI w warunkach klinicznych jest tzw. „black box”. Nie wszystkie procesy podejmowania decyzji przez AI można śledzić, a tym samym nie są one transparentne. Istnieje zagrożenie, że ktoś, celowo lub przez pomyłkę może wprowadzić nieprawidłowe dane do systemu, co doprowadzi do błędnych wniosków. W przypadku aplikacji mobilnej używanej przez tysiące pacjentów może się to przełożyć na tysiące błędnych diagnoz. Innym wyzwaniem jest sceptyczne podejście pracowników medycznych. Aby zdobyć zaufanie lekarzy, twórcy systemów AI będą musieli jasno udowodnić pozytywny wpływ na np. jakość usług albo poprawę wyników klinicznych.