KUNSTIG INTELLIGENS
Muligheder og faldgruber
”Algoritmen kan spille ind som – Vi vidste, at vi kunne blive påvirket af den kunstige intelligens, så vi var opmærksomme på ikke at lade os styre. Men udsvingene gav god mening, fordi de fik os til i højere grad at drøfte, hvad der gjorde os bekymrede i en sag, fortæller socialrådgiver Simone Berg, som har deltaget i forskningsprojektet ”Fokus på underretninger”. Af Henrik Stanek Illustration: Otto Dickmeiss
P
Å EN SKALA fra et til ti vurderer Simone Berg bekymringsgraden for et barn til to. Når hun derefter skanner underretningen ind i en algoritmebaseret beslutningsstøtte, boner den ud med et fem-tal. Selv om den kunstige intelligens tydeligvis er mere bekymret, får det ikke Simone Berg til at tvivle på sin dømmekraft. Eller rettere sagt fik ikke, for familierådgiveren blev udfordret på sine vurderinger, da to team i Silkeborg Kommune testede den første udgave af den beslutningsstøtte, et forskerteam i Aarhus er ved at udvikle. – Vi vidste, at vi over tid kunne blive påvirket af den kunstige intelligens, så
vi var opmærksomme på ikke at lade os styre. Men udsvingene gav god mening, fordi de fik os til i højere grad at drøfte, hvad der gjorde os bekymrede i en sag, fortæller Simone Berg, som er tillidsrepræsentant for sine kolleger. En lavere score end hendes egen fik Simone Berg til at tænke over, om hun var for overbekymret, mens en højere score både kunne bunde i, at der var noget, hun havde overset, eller at der var ting, beslutningsstøtten ikke vidste. – Algoritmen boner ud, hvis der står psykiatrisk behandling eller misbrug i underretningen, men jeg ved måske, at moren er medicineret for sin skizofreni og er velfungerende. Eller måske har
Min faglighed bygger på ti års erfaring, men det vil måske være fristende for nyuddannede, som kommer til at arbejde med en robot fra dag et, at læne sig for meget op ad den. Simone Berg, socialrådgiver og tillidsrepræsentant
22
jeg lige talt med misbrugskonsulenten, som siger, at moren er i behandling for sit misbrug og er i bedring. Vi var opmærksomme på, at vi ved noget fra vores kendskab til familien, som beslutningsstøtten ikke kender til, siger familierådgiveren.
Plads til forbedringer Der er plads til forbedringer i beslutningsstøtten, mener Simone Berg. – Robotten boner ud på bekymringsord som misbrug, vold og overgreb, men hvis der står ’et stort forbrug’ i stedet for misbrug, fanger den det ikke. Man skal hele tiden have for øje, at det er en robot. Det er en lille baby, som skal udvikles. Også navnet bør forbedres. – Beslutningsstøtte er et dårligt ord, for algoritmen skal ikke beslutte noget. Jeg drøfter som regel underretninger med en kollega, og algoritmen kan så spille ind som en tredje makker. Når man arbejder med den samme type sager, kan man blive blind for noget, og beslutningsstøtten understøtter, at vi får drøftet, om vi gør det, vi gerne vil. På den måde kvalificerer den vores vurdering, siger Simone Berg. Hun frygter ikke, at beslutningsstøtten reducerer borgernes retssikkerhed. Tværtimod. I hvert fald så længe socialrådgivere kun læner sig op ad den. – Algoritmen har ikke andel i sagen, hvor vi altid har en forforståelse, både af sociale problemer og af de borgere, vi arbejder med. Her dukker algoritmen op og giver anledning til, at vi tænker os om en gang mere, og det forstærker retssikkerheden.
Algoritmen er ikke ansvarlig Simone Berg er ikke bange for, at algoritmen kan blive så god, at den kan erstatte hende. – Algoritmen kan ikke lave en individuel vurdering, som er det centrale i vores arbejde. Den kan heller ikke tage højde SOCIALRÅDGIVEREN 04 22