4 minute read
Roboten som kompis
Sociala robotar som ingenting förstår
Roboten var orättvis, sade klumpiga saker och feltolkade barnens känslor. Dessutom bad den inte om ursäkt när den gjorde fel. – Om människor gör misstag, brukar det vara viktigt att reparera skadan. Men roboten hade inga sådana strategier. Den bara fortsatte på sin kula, säger forskaren Sofia Serholt.
Advertisement
VISST TYCKTE ELEVERNA att det var ganska kul att spela kunskapsspel med roboten NAO. Det var spännande att maskinen pratade och rörde på armarna. Det såg åtminstone ut som den kunde kommunicera.
När barnen i efterhand fick beskriva vem NAO var för dem, liknade de flesta roboten vid en dator, medan några av dem jämförde den med en människa, en lärare eller en vän. Det hände till och med att eleverna ”glömde” bort att roboten bara var en maskin och behandlade den som om den var en social aktör.
En del av barnen blev ledsna och irriterade över att NAO inte förstod vad de sa. Andra tyckte att han bar sig illa åt och förstörde deras chanser i spelet. – Inom forskningen kan vi se att människor har en tendens att förmänskliga teknologi. Ju fler sociala signaler en artefakt uppvisar, desto villigare är vi att ge den mänskliga egenskaper, säger Sofia Serholt, lektor vid institutionen för tillämpad IT.
FÖR NÅGRA ÅR sedan disputerade Sofia med sin avhandling om barn och robotar i klassrummet. Då hade hon genomfört olika tester med en robot i undervisningsmiljö i årskurs fyra till sex. Ambitionen med projektet var att studera hur barn interagerar med en robot som finns där för att lära dem något. Roboten var också designad för att kunna agera empatiskt genom att anpassa sitt beteende efter barnens nivå. – Det är ett spännande forskningsområde eftersom de sociala robotarna kommer alltmer. Frågan man behöver ställa sig är om en robot kan avlasta en lärare i klassrummet, eller om den bara skulle skapa fler problem, säger hon.
RESULTATET AV Sofia Serholts studier kan sammanfattas med två ord: inte än. Att en robot ersätter en mänsklig lärare är fortfarande science fiction. AI kan, än så länge, bara göra vad systemet är programmerat för. Den kan inte tänka själv eller förstå och tolka känslor som människor gör.
Meningen var att klassrums-NAO skulle anpassa sin pedagogiska strategi för att i möjligaste mån undvika att eleverna blev stressade av undervisningssituationen. Något som visade sig bli svårt. – Trots att barnen visste att roboten inte kunde förstå vad de sa, blev de ändå frustrerade när NAO feltolkade deras signaler. För en del barn blev det väldigt jobbigt och de blev osäkra på hur avancerad maskinen var. Såg den verkligen inte hur arg och ledsen jag blev?
Jämfört med den AI vi inte ser och som finns överallt, i våra mobiltelefoner och datasystem, är sociala robotar långt ifrån färdigutvecklade. De som finns idag är alltför begränsade för att användas i till exempel en pedagogisk miljö, enligt Sofia Serholt.
– FRÅGAN ÄR OM de ska kallas sociala robotar. De kan prata och röra sig vilket gör att vi tillskriver dem sociala egenskaper, men de har inte förmåga att förstå känslor och agera intuitivt. Vi måste fundera på hur detta påverkar eleverna och i vilka situationer de kan passa in, säger hon.
När lärare fick fundera på frågan fanns det vissa uppgifter de ansåg att en robot kunde vara bra till. Tekniken skulle kunna användas för tydligt strukturerade uppgifter och repetitiva moment. Till exempel skulle en robot kunna hjälpa barnen att träna på glosor och matematik.
Under studiens gång byttes spelet ut
- Robotarna kan prata och röra sig men inte förstå känslor, påpekar Sofia Serholt.
SOFIA SERHOLT
och ersattes av en Simsliknande applikation, där målet var att bygga upp en hållbar stad. Barnen och roboten turades om att göra var sitt drag i det gemensamma projektet. Till skillnad mot geografispelet, då barnen hade varit ensamma i rummet tillsammans med NAO, hade de nu en klasskamrat vid sin sida när de interagerade med roboten. Problemen som uppstod fick nu en annan karaktär.
När de var två – mot en – upplevde eleverna en helt annan social trygghet som gjorde att de kunde gadda ihop sig mot roboten. Till exempel kunde de ta över NAO:s tur i spelet. – Istället för att bli ledsna eller passiva kunde de gemensamt uttrycka ett bristande förtroende för roboten, säger Sofia Serholt.
Att mer och mer teknik införs i skolan verkar vara en ofrånkomlig utveckling. Men vi behöver ställa oss frågan vad den ska användas till och vad vi vill uppnå med mer maskininlärning, menar Sofia Serholt. Vad skulle till exempel hända om en pedagog i klassrummet byttes ut mot en programmerad robot?
NÄR LÄRARE HAR fått diskutera frågorna, i flera tidigare studier, har deras oro handlat om hur barnens integritet kan värnas, vem som bär ansvaret om något går fel och om barnens känslomässiga utveckling kan påverkas. – Vi vet inte vilket inflytande tekniken har på barns beteende och utveckling, eller om de riskerar att bli emotionellt påverkade. Skolan handlar ju inte bara om att uppnå ett läranderesultat, vi måste också ställa oss frågan hur vi blir som människor i relation till tekniken.
Text: Lotta Engelbrektson Foto: Johan Wingborg