4 minute read
AI - hot eller frälsning?
AI – hot eller frälsare?
Framtidens artificiella intelligens (AI) är omöjlig att förutspå. Dagens teknik har öppnat dörren till oändliga möjligheter.
Advertisement
Men ju mer AI letar sig in i vår vardag, desto större är behovet av regler och moral.
Text: Lotta Engelbrektsson Foto: Johan Wingborg Illustration: Maria Källström
ET MESTA TÄNKER vi inte ens på längre. Tvärtom är vi ganska nöjda med att vi har tekniken. Spotify sätter ihop låtlistor åt oss och behöver vi en vägbeskrivning kan vi få den direkt i telefonen.
Många av oss har till och med vant oss vid den personliga reklamen i sociala medier och tycker det är okej att polisen använder drönare i jakten på brottslingar.
Fast robotar som påverkar demokratiska val eller algoritmer som avgör när bomber ska fällas i krig? Någonstans där drar de flesta öronen åt sig. – AI finns överallt, i våra mobiltelefoner och sociala medier. Vanligtvis är vi inte ens medvetna om att vi påverkas av algoritmerna, säger Jan Ljungberg, professor på institutionen för tillämpad IT.
Artificiell intelligens är på allas läppar. Kunskapen om hur en maskin ska programmeras för att klara avancerade uppgifter är redan extremt utvecklad i de flesta högteknologiska länder. Särskilt USA och Kina kapprustar, värre än kalla kriget, om vem som ska vara först, störst och snabbast på marknaden. Men Sverige är inte heller så illa rustat. Redan för två år sedan deklarerade regeringen att Sverige ska bli bäst i världen på att använda digitaliseringens möjligheter.
Varför är AI en hype just nu? – Det vi ser nu är den tredje vågen. Den första kom redan på 50-talet då tekniken var i sin linda. AI blev hett igen under 80-talet, men tvärdog ett decennium senare. Vad som hände då var att vi tillskrev tekniken en massa färdigheter som den inte kunde leva upp till, säger Jan Ljungberg.
DEN STORA SKILLNADEN jämfört med då, är att datorkraften idag är enormt mycket starkare. Dessutom har de som utvecklar programmen tillgång till extrema mängder data. Förutsättningarna för att slå igenom med en innovation är helt annorlunda jämfört med för 30 år sedan.
Tänk bara på all geodata vi spiller efter oss när vi rör oss genom stan en vanlig arbetsdag. Vi kollar vädret, spårvagnstiderna eller slår på gps:en i bilen när vi ska resa någonstans. All information är
Foto: PRIVAT
Jan Ljungberg, professor i informatik.
mumma för såväl samhällsplanerare som kommersiella företag. För att inte tala om alla bilder som cirkulerar i de digitala näten, oskyldiga fotografier och selfies som möjliggör ansiktsigenkänning.
VI KANSKE TYCKER, som sagt, att det är bra att polisen kan använda tekniken för att spåra kriminella individer. Men om ansiktsigenkänning används för att övervaka varje steg vi tar, eller för att sälja på oss ännu mer prylar – är vi då lika nöjda med utvecklingen? – Eller om försäkringsbolagen får tillgång till våra dåliga vanor, vad vi äter och hur mycket vi rör på oss. Vad händer då? inflikar Jan Ljungberg.
Egentligen föredrar professorn att prata om maskinintelligens, eftersom det är vad AI egentligen handlar om. Grunden i ”intelligensen” är ett system som programmerats för att känna igen ett mönster.
Till exempel kan tekniken vara överlägsen när det gäller att diagnostisera cancer. Om en maskin har matats med tiotusentals bilder av tumörer, lär den sig upptäcka en avvikelse till slut. Det betyder inte att den vet hur det känns att ha cancer. – AI kan aldrig ha ett omdöme. Men vi har en tendens att tillskriva tekniken våra egna mänskliga egenskaper, säger Jan Ljungberg.
Samtidigt är möjligheterna med AI enorma och rädslan för missbruk nästan lika stor. Tekniken är fantastisk i många sammanhang men kan vara skadlig i nästan lika många andra. Denna balansgång ställer höga krav på lagstiftare och policymakare, menar Jan Ljungberg.
– DET FINNS EN juridisk paradox, Colllingridge’s dilemma. När man inför en teknik vet man för lite om konsekvenserna för att kunna lagstifta om den. När tekniken tagits i bruk och man ser konsekvenserna är det för komplicerat att reglera.
De stora plattformarna, som Google, Facebook, Amazon och Microsoft är dessutom globala, med mycket makt, inte minst vad gäller normsättning. Är till exempel de svenska normerna kompatibla med dem i USA i alla väder? Har vi samma syn på öppenhet och humanism? – Vi tänker oss att grundarna till de sociala plattformarna har en slags liberal, humanistisk ideologi. De startade ju som öppna, demokratiska arenor för medborgarna. Men vi skulle ju knappast låta ryska och kinesiska plattformar få samma tillgång till våra data som Google får. Många gånger räcker det inte med nationell lagstiftning, den skulle behöva vara övernationell, säger Jan Ljungberg.
Att AI inte är så enkelt som att förbättra tillvaron med tekniska lösningar är de flesta medvetna om. Bland annat har Wallenbergstiftelserna satsat 660 miljoner kronor i forskningsprogrammet WASPHS som ska undersöka hur teknikskiftet kommer att påverka vårt samhälle och våra beteenden. Där finns GU med i tre stora projekt. – Två på IT-fakulteten och ett inom den Samhällsvetenskapliga fakulteten. Synen på AI kommer att breddas på ett bra sätt för ett universitet som GU, säger Jan Ljungberg.