12
T E M A : K U N S T I G I N T E L L I G E N S
Retfærdig behandling med kunstig intelligens Fordomme og stereotyper kan afspejles i algoritmer i sundhedsvæsenet. Nu vil forskere udvikle fair algoritmer.
Ch ristin a Tæ kke r B a x Lind h ard t
I
dag bliver kunstig intelligens (AI) og maskinlæring i stigende grad brugt i vores sundhedssystem. Læger og radiologer bruger f.eks. algoritmer som støtte til at tage beslutninger om, hvilken diagnose patienten kan have. Problemet er blot, at algoritmer kan være lige så forudindtagede og fordomsfulde som mennesker, fordi de er baseret på data fra tidligere observationer. Hvis en algoritme f.eks. har set flere eksempler på lungesygdomme hos mænd end hos kvinder, vil den være bedre trænet til at opdage lungesygdomme hos mænd. Sundhedsdata har ofte en bias, en misrepræsentation af forskellige demo-
I de næste tre år skal professor Aasa Feragen fra DTU Compute samarbejde med KU, Rigshospitalet og det tekniske universitet ETH i Schweiz om at definere fairness i kunstig intelligens inden for medicin ske anvendelser.
grafiske befolkningsgrupper, der ender med at påvirke, hvilke beslutninger en sundhedsalgoritme er i stand til at tage. Det kan føre til underdiagnosticering af nogle befolkningsgrupper, fordi der eksisterer flest data fra en bestemt gruppe. ”Hvis algoritmen bliver trænet af data, der afspejler fordomme og stereotyper i samfundet, vil der også være skævheder eller bias i den kunstige intelligens, der reproducerer dataene – og det er ikke nødvendigvis fair,” siger Aasa Feragen, professor på DTU Compute. ”Idéen om, at kunstig intelligens skal tage vigtige beslutninger om min sundhedstilstand, er skræmmende, når man ved, at AI kan være lige så diskriminerende som de værste racister eller sexister,” siger hun.