Dynamo nr 63

Page 12

12

T E M A : K U N S T I G I N T E L L I G E N S

Retfærdig behandling med kunstig intelligens Fordomme og stereotyper kan afspejles i algoritmer i sundhedsvæsenet. Nu vil forskere udvikle fair algoritmer.

Ch ristin a Tæ kke r B a x Lind h ard t

I

dag bliver kunstig intelligens (AI) og maskinlæring i stigende grad brugt i vores sundhedssystem. Læger og radiologer bruger f.eks. algoritmer som støtte til at tage beslutninger om, hvilken diagnose patienten kan have. Problemet er blot, at algoritmer kan være lige så forudindtagede og fordomsfulde som mennesker, fordi de er baseret på data fra tidligere observationer. Hvis en algoritme f.eks. har set flere eksempler på lungesygdomme hos mænd end hos kvinder, vil den være bedre trænet til at opdage lungesygdomme hos mænd. Sundhedsdata har ofte en bias, en misrepræsentation af forskellige demo-

I de næste tre år skal professor Aasa Feragen fra DTU Compute samarbejde med KU, Rigshospitalet og det tekniske universitet ETH i Schweiz om at definere fairness i kunstig intelligens inden for medicin­ ske anvendelser.

grafiske befolkningsgrupper, der ender med at påvirke, hvilke beslutninger en sundhedsalgoritme er i stand til at tage. Det kan føre til underdiagnosticering af nogle befolkningsgrupper, fordi der eksisterer flest data fra en bestemt gruppe. ”Hvis algoritmen bliver trænet af data, der afspejler fordomme og stereo­typer i samfundet, vil der også være skævheder eller bias i den kunstige intelligens, der reproducerer dataene – og det er ikke nødvendigvis fair,” siger Aasa Feragen, professor på DTU Compute. ”Idéen om, at kunstig intelligens skal tage vigtige beslutninger om min sundhedstilstand, er skræmmende, når man ved, at AI kan være lige så diskriminerende som de værste racis­ter eller sexister,” siger hun.


Turn static files into dynamic content formats.

Create a flipbook
Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.