4 minute read
RAPoRT
from OSOZ Polska
by OSOZ Polska
Mapa drogowa dla systemów sztucznej inteligencji w ochronie zdrowia
Najnowszy raport Światowej Organizacji Zdrowia „Etyka i zarządzanie sztuczną inteligencją dla zdrowia” (ang. Ethics and governance of Artificial Intelligence for health) jest jednym z najbardziej wyczerpujących opracowań zawierających wytyczne dotyczące sprawiedliwego i bezpiecznego zastosowania AI oraz wykorzystania danych na potrzeby rozwoju algorytmów AI.
Advertisement
Maksymalizacja potencjału i minimalizacja zagrożeń Sztuczna inteligencja (Artificial Intelligence, AI) to zdolność algorytmów do uczenia się na podstawie danych, dzięki czemu mogą one wykonywać zautomatyzowane zadania bez konieczności ingerencji ze strony człowieka. Jednak, aby w pełni czerpać korzyści z AI, należy sprostać wyzwaniom, które wiążą się z adaptacją tej nowej technologii. To, czy AI przyniesie korzyści pacjentom, pracownikom oraz systemom ochrony zdrowia, zależy od wdrożenia regulacji, które będą wspierały rozwój etycznych i transparentnych algorytmów. AI może wzmocnić zdolność podmiotów medycznych do poprawy jakości opieki nad pacjentami, poprawić precyzję diagnoz, optymalizować plany leczenia i standardy opieki. Może być elementem skutecznego systemu kontroli pandemii oraz wspomagać podejmowanie decyzji dotyczących polityki zdrowotnej lub alokacji zasobów w ramach systemów opieki zdrowotnej. A co najważniejsze, sztuczna inteligencja może wspierać budowanie systemów ochrony zdrowia opartych na powszechnym dostępie do usług (większa dostępność do świadczeń dzięki automatyzacji) – AI może umożliwić krajom ubogim niwelować luki w dostępie do usług zdrowotnych. Aby wykorzystać ten potencjał, pracownicy opieki zdrowotnej i systemy opieki zdrowotnej muszą dysponować szczegółowymi informacjami na temat kontekstu, w którym takie systemy mogą bezpiecznie i skutecznie funkcjonować. Lekarze powinni zyskać dostęp do szkoleń, aby zdobywać umiejętności wymagane podczas korzystania z systemów AI. Sztuczna inteligencja pozwala pacjentom na przejęcie kontroli nad własnym zdrowiem, zrozumieć zmieniające się potrzeby zdrowotne. Aby to osiągnąć, pacjenci powinni mieć pewność, że ich dane są bezpieczne oraz przetwarzane w sposób zgodny z najlepszymi praktykami, w transparentny i zaufany sposób.
Sześć wytycznych dla etycznych systemów Ai Członkowie grupy eksperckiej WHO opracowali szereg wytycznych, jakimi powinni kierować się twórcy rozwiązań AI, które należy uwzględnić wprowadzając narzędzia oparte na algorytmach do systemów zdrowia. Pierwszą z nich jest zasada autonomii. Wymaga ona, aby wykorzystanie AI lub innych systemów obliczeniowych nie naruszało ludzkiej autonomii. W kontekście opieki zdrowotnej oznacza to, że człowiek powinien zachować kontrolę nad decyzjami medycznymi. Usługodawcy powinni posiadać informacje niezbędne do bezpiecznego i skutecznego korzystania z systemów AI, a pacjenci powinni otrzymać informację o ich roli w procesie opieki. Wymaga to również ochrony prywatności i poufności oraz uzyskania świadomej zgody na podsta-
wie odpowiednich ram prawnych dotyczących ochrony danych. Po drugie, rozwiązania AI muszą wspierać dobrostan i bezpieczeństwo ludzi oraz chronić interes publiczny. Projektanci technologii AI powinni kierować się wymogami regulacyjnymi w zakresie bezpieczeństwa, dokładności i skuteczności dla ściśle określonych zastosowań algorytmów. Trzeba opracować środki kontroli jakości AI. Kolejna zasada – zapobieganie szkodom – wymaga, aby AI nie powodowała szkód psychicznych lub fizycznych, których można by uniknąć poprzez zastosowanie alternatywnych narzędzi. Konieczne jest też zapewnienie przejrzystości rozwiązań AI i algorytmów. Technologie AI powinny być zrozumiałe nie tylko dla ich twórców, ale i pracowników medycznych, pacjentów, użytkowników i organów regulacyjnych. Przejrzystość AI wymaga dokumentowania procesu planowania i rozwoju technologii AI, aby łatwo było zweryfikować funkcjonalność rozwiązania, potencjalne korzyści i zagrożenia. To nakłada na twórców dużą odpowiedzialność kierowania się najlepszymi praktykami w rozwoju AI. W ten proces powinni zostać włączeni pacjenci i lekarze. Konieczne jest też opracowanie zasad odpowiedzialności w przypadku szkód wyrządzonych przez sztuczną inteligencję. Kto odpowiada za nieprawidłową diagnozę albo postępowanie lekarza? W jaki sposób będzie wyglądać dochodzenie odpowiedzialności prawnej? Niemniej ważne jest wprowadzenie zasady sprawiedliwości i równego traktowania. Według WHO, AI dla zdrowia powinna być zaprojektowana w sposób umożliwiający jej szerokie zastosowanie, a algorytmy AI powinny być trenowane na wysokiej jakości danych, aby podejmowanie przez nie decyzje nie dyskryminowały ludzi ze względu na takie cechy jak płeć, dochód, rasę, pochodzenie etniczne, orientację seksualną lub inne cechy chronione na mocy kodeksów praw człowieka. Technologie AI nie mogą kodować uprzedzeń na niekorzyść możliwych do zidentyfikowania grup, zwłaszcza tych, które są już marginalizowane. Narzędzia i systemy AI powinny być monitorowane i oceniane w celu zidentyfikowania nieproporcjonalnych korzyści dla określonych grup ludzi. Żadna technologia, AI lub inna, nie powinna podtrzymywać ani pogarszać istniejących form uprzedzeń i dyskryminacji.
Zasady transparentnego przetwarzania danych do celów związanych z rozwojem systemów AI.
Kto będzie przetwarzał moje dane? Jakie są korzyści i kto będzie beneficjentem?
Czy będę zapytany o zgodę na sprzedaż danych?
Czy moje dane mogą być sprzedane? ÓR B W Y WARTOŚĆ
TRANSPARENTNE UŻYTKOWANIE DANYCH
OCHRONA
Do jakich celów będą używane moje dane?
Czy moje dane są bezpieczne?
Czy mogę sprawdzić swoje dane i je skorygować? Czy moje dane są anonimowe?
Z kolei tzw. responsywność wymaga, aby projektanci, twórcy i użytkownicy w sposób ciągły, systematyczny i przejrzysty oceniali aplikacje AI podczas ich rzeczywistego użytkowania. Powinni oni mieć narzędzia do raportowania, czy AI reaguje w sposób adekwatny i właściwy oraz zgodnie z wymaganiami. Responsywność oznacza również spójność technologii AI z celami zrównoważonego rozwoju systemów opieki zdrowotnej. Systemy AI powinny być projektowane w taki sposób, aby minimalizować ich negatywny wpływ na środowisko naturalne i klimat oraz zwiększać efektywność energetyczną. Zrównoważony rozwój wymaga również, aby rządy i firmy technologiczne wzięły pod uwagę potencjalną utratą miejsc pracy w związku z korzystaniem ze zautomatyzowanych systemów. Długofalowe oddziaływanie AI w społeczeństwie należy uwzględnić w strategicznych planach na poziomie krajowym i regionalnym, wdrażający inicjatywy mające na celu minimalizację negatywnych skutków.
Wskazówki dla twórców i użytkowników Raport WHO zawiera też praktyczne porady dotyczące wdrażania wytycznych WHO dla trzech grup interesariuszy: twórców technologii AI, ministerstw zdrowia i świadczeniodawców. Chociaż głównym odbiorcą niniejszych wytycznych są ministerstwa zdrowia, są one również przeznaczone dla innych agencji rządowych, ministerstw, które będą regulować AI, osób korzystających z technologii AI dla zdrowia oraz podmiotów, które projektują i finansują technologie AI przeznaczone do zastosowania w ochronie zdrowia. Bezpłatny raport jest owocem dwuletniego procesu badań prowadzonych przez dwa departamenty WHO – Zdrowie Cyfrowe i Innowacje oraz Badania na rzecz Zdrowia.
Etyka i zarządzanie sztuczną inteligencją dla zdrowia Ethics and governance of artificial intelligence for health
Raport Światowej organizacji Zdrowia
165 stron, język angielski
Aby pobrać raport, wejdź na stronę https://bit.ly/3x7gsCY lub zeskanuj kod