Nyheter Fokus | Artificiell Intelligens
Sociala robotar som ingenting förstår Roboten var orättvis, sade klumpiga saker och feltolkade barnens känslor. Dessutom bad den inte om ursäkt när den gjorde fel. – Om människor gör misstag, brukar det vara viktigt att repareraskadan. Men roboten hade inga sådana strategier. Den bara fortsatte på sin kula, säger forskaren Sofia Serholt. VISST TYCKTE ELEVERNA att det var
ganska kul att spela kunskapsspel med roboten NAO. Det var spännande att maskinen pratade och rörde på armarna. Det såg åtminstone ut som den kunde kommunicera. När barnen i efterhand fick beskriva vem NAO var för dem, liknade de flesta roboten vid en dator, medan några av dem jämförde den med en människa, en lärare eller en vän. Det hände till och med att eleverna ”glömde” bort att roboten bara var en maskin och behandlade den som om den var en social aktör. En del av barnen blev ledsna och irriterade över att NAO inte förstod vad de sa. Andra tyckte att han bar sig illa åt och förstörde deras chanser i spelet. – Inom forskningen kan vi se att människor har en tendens att förmänskliga teknologi. Ju fler sociala signaler en artefakt uppvisar, desto villigare är vi
30
GUJOURNALEN HÖSTEN 2020
att ge den mänskliga egenskaper, säger Sofia Serholt, lektor vid institutionen för tillämpad IT. FÖR NÅGRA ÅR sedan disputerade Sofia med sin avhandling om barn och robotar i klassrummet. Då hade hon genomfört olika tester med en robot i undervisningsmiljö i årskurs fyra till sex. Ambitionen med projektet var att studera hur barn interagerar med en robot som finns där för att lära dem något. Roboten var också designad för att kunna agera empatiskt genom att anpassa sitt beteende efter barnens nivå. – Det är ett spännande forskningsområde eftersom de sociala robotarna kommer alltmer. Frågan man behöver ställa sig är om en robot kan avlasta en lärare i klassrummet, eller om den bara skulle skapa fler problem, säger hon. RESULTATET AV Sofia Serholts studier kan sammanfattas med två ord: inte än. Att en robot ersätter en mänsklig lärare är fortfarande science fiction. AI kan, än så länge, bara göra vad systemet är programmerat för. Den kan inte tänka själv eller förstå och tolka känslor som människor gör. Meningen var att klassrums-NAO skulle anpassa sin pedagogiska strategi för att i möjligaste mån undvika att eleverna
blev stressade av undervisningssituationen. Något som visade sig bli svårt. – Trots att barnen visste att roboten inte kunde förstå vad de sa, blev de ändå frustrerade när NAO feltolkade deras signaler. För en del barn blev det väldigt jobbigt och de blev osäkra på hur avancerad maskinen var. Såg den verkligen inte hur arg och ledsen jag blev? Jämfört med den AI vi inte ser och som finns överallt, i våra mobiltelefoner och datasystem, är sociala robotar långt ifrån färdigutvecklade. De som finns idag är alltför begränsade för att användas i till exempel en pedagogisk miljö, enligt Sofia Serholt. – FRÅGAN ÄR OM de ska kallas sociala robotar. De kan prata och röra sig vilket gör att vi tillskriver dem sociala egenskaper, men de har inte förmåga att förstå känslor och agera intuitivt. Vi måste fundera på hur detta påverkar eleverna och i vilka situationer de kan passa in, säger hon. När lärare fick fundera på frågan fanns det vissa uppgifter de ansåg att en robot kunde vara bra till. Tekniken skulle kunna användas för tydligt strukturerade uppgifter och repetitiva moment. Till exempel skulle en robot kunna hjälpa barnen att träna på glosor och matematik. Under studiens gång byttes spelet ut