INGA STRÜMKE MASKINER SOM TENKER
Algoritmenes hemmeligheter og veien til kunstig intelligens
© 2023 Kagge Forlag AS
Omslagsdesign: Gisle Vagstein
Layout: Dag Brekke | akzidenz as Papir: Holmen Book Cream 80 g
Boka er satt med Minion pro 11/14,5 Trykk og innbinding: Livonia Print, Latvia
ISBN: 978-82-489-3250-5
Utdraget fra diktet «Glömskan» av Thomas Tidholm på s. 158 er hentet fra Blandade dikt gjengitt med tillatelse fra forfatteren.
Forfatteren har mottatt støtte fra Det faglitterære fond.
Kagge Forlag AS
Tordenskiolds gate 2
0160 Oslo
www.kagge.no
Forord 9
DEL 1: STARTEN PÅ DET HELE
Kapittel 1: Litt nøye utvalgt historie 15
Verdens mest vellykkede svindel 15
Algoritmer 18
Datamaskiner 19
Gödel, Turing og von Neumann 20
Et fagfelt blir født 24
Sjakk matt 26
Resonneringens bananflue 32
Universets beste sjakkspiller 34
Maskinenes tid 37
Kapittel 2: Hvordan vi prøver å gjøre maskiner
intelligente 42
Symbolsk AI 42
Ekspertsystemer 44
ELIZA-effekten 51
Vinter og vår 54
Maskiner som lærer 57
Veiledet læring 59
Blomster og beslutningstrær 62
Subsymbolsk AI 66
Nevrale nettverk gjennom tidene 72
Å lære hva som helst 76
Kapittel 3: Jakten på data 83
Den sanne fordelingen 83
Data til maskinlæring 86
Feil fordeling 88
Bias for statistikere og journalister 92
Data er dyrt 97
Lange problematiske haler 100
Å finne sine egne data 103
DEL 2: KUNSTIG INTELLIGENS I DAG
Kapittel 4: Du tror det ikke før du ser det 111
Verden er matriser 111
Maskiner som nesten skjønner hva de ser på 116
Det enkle er ofte feil 123
Maskiner som skjønner mer enn vi gjør 126
Kunstig intuisjon og konsepter i sjakk 132
Mental helse 135
Personvern 139
Retten til en forklaring 143
Kapittel 5: Er det noen hjemme? 147
Kunstige samtalepartnere 147
Ånden i maskinen 151
ChatGPT og bekymrede norsklærere 156
Snakk om problemer 162
En Turingtest for bevissthet 166
Kunsten å skape 171
Fra støy til virkelighet 179
Kapittel 6: Vårt kunstig intelligente liv 187
Maskinenes revolusjoner 187
En verden av etikk 193
Noen må bestemme 200
Strømkrig og AI Act 206
Det sosiale dilemmaet for AI-utvikling 210
Hvor skal vi med personvern? 214
Kapittel 7: Hvordan angripe en maskinlæringsmodell 223
Flinke maskiner med gode intensjoner 223
Synsbedrag for maskiner 227
Å klippe gress i tre dimensjoner 231
Dimensjonsforbannelsen 234
Bakveien inn 237
Vinter og politikk 243
Autonomi og kontroll 250
DEL 3: KUNSTIG INTELLIGENS I MORGEN
Kapittel 8: Superintelligens og annen spekulering 259
Kunstig kreativitet 259
Tale og akustikk 263
Databruk 265
AI-etikk og moralske aktører 267
Generell intelligens og superintelligens 271
Maskinmål, menneskemål og mesaoptimalisering 280
En hjerne som tenker på seg selv 288
Illustrasjoner 301
Noter 303
Forord
En sen vårkveld i 2018 dyttet 49 år gamle Elaine Herzberg sykkelen sin over en bilvei i Arizona. Hun gikk ikke over gangfelt, men med sykkelen full av handleposer krysset hun rett over den brede bilveien. På veien kom en Volvo XC90 kjørende mot henne, men Elaine fortsatte å gå. Og bilen stoppet ikke. Den bremset ikke engang, men endte opp med å treffe Elaine, som senere døde av skadene på sykehuset. Det er ganske utrolig at bilen ikke bremset, for akkurat denne bilen hadde to sjåfører: et menneske og en maskin. Maskinen kontrollerte bilen som del av Ubers testing av selvkjørende biler, mens mennesket, Rafaela Vasquez, hadde ansvar for å følge med og overta kontrollen hvis maskinen gjorde feil. Begge sjåførene feilet, og det er enkelt å forstå hva som gikk galt for Rafaelas vedkommende. De aller fleste mennesker blir late når vi må utføre monotone oppgaver og følge med på maskiner som stort sett gjør det de skal. Loggen i bilen viste at Rafaela hadde sett ned og smilt kort tid før ulykken, noe som tyder på at hun fulgte med på noe annet enn bare veien. Rafaela må likevel ha ant uråd i siste øyeblikk, for hun beveget
rattet mindre enn ett sekund før bilen traff Elaine. Hun trykket også på bremsen like etter sammenstøtet, men da var det for sent. Året etter, våren 2019, avgjorde påtalemyndighetene i
Arizona at Uber ikke var ansvarlig for ulykken, mens Rafaela ble tiltalt for uaktsomt drap.
Er det rettferdig at Rafaela skulle få skylden for at en maskin gjorde feil? Faktisk er det ikke opplagt at det gir mening å snakke om at maskiner gjør feil. For maskinens vedkommende er det nemlig mindre åpenbart hva som gikk galt. Etter hundretusener av mil på veien var dette første gang et menneske hadde dødd etter å ha blitt påkjørt av en av Ubers selvkjørende biler. Både Uber og Rafaela hadde altså god grunn til å gå ut fra at det kom til å gå bra.
Før selvkjørende biler tas i bruk, gjennomgår de utallige timers trening, både i simuleringer og i ekte trafikk. Hvis vi hadde trent opp et menneske like godt, kunne vi fremdeles ikke gått ut fra at vedkommende aldri ville begå feil i trafikken: Mennesker er ansvarlige for over seks millioner bilulykker bare i USA, og på verdensbasis dør 1,2 millioner mennesker i trafikken hvert år. Det er seks ganger så mange som antallet som dør i krig. Forbedringspotensialet er slående, og ser vi på hovedårsakene til ulykkene – fart, rus og uoppmerksomhet – er det nærliggende å tenke at maskinene bør kunne gjøre dette bedre enn vi mennesker. Maskiner holder seg til fartsgrenser, de ruser seg ikke, og så lenge de får strøm, mister de ikke konsentrasjonen. Maskiner har en reaksjonshastighet og beregningskapasitet vi mennesker bare kan drømme om. Likevel gjør maskiner feil vi mennesker aldri ville gjort. Ikke et menneske i verden ville sett en fotgjenger krysse veien og trodd at det ikke var noe å bremse for.
Hva var det som gjorde at en maskin kjørte på Elaine i 2018? Det enkle svaret er at den klassifiserte henne som en «falsk positiv». Bilen observerte henne altså, men klassifiserte henne feilaktig som noe man ikke stopper for, som aviser og plastposer. Klassifisering er blant de vanligste oppgavene vi bruker kunstig intelligens til i dag. Hva skjer når klassifiseringen
slår feil og feilen går utover mennesker? «Maskinen tok feil» er en altfor enkel forklaring, og den tåkelegger hvor ansvaret ligger. En maskin som skal klassifisere objekter den ser i trafikken – fotgjengere, syklister, biler, motorsykler, lastebiler og plastposer – er utviklet på data et menneske har hatt ansvaret for. Deretter vil en maskin aldri si «menneske» eller «plastpose». Alt maskiner sier er tall. Det er igjen et menneske som er ansvarlig for å bestemme hvilken terskel tallet skal være over eller under for å regne det maskinen ser på, som et menneske, en plastpose eller noe helt annet. Hver gang kunstig intelligens brukes til å ta en beslutning, ligger det minst én avveining bak. Og avveiningene er det vi mennesker som må gjøre. En ingeniør bestemte hvilken terskel som skulle fått bilen til å stoppe – eller ikke stoppe.
Slik er det hver gang kunstig intelligens er involvert: Når vi leser om maskiner som diskriminerer, ligger ikke forklaringen i at maskinen er rasistisk eller sexistisk. Forklaringen ligger i avveiningene som ble gjort (eller ikke gjort) da dataene ble samlet inn og maskinen lært opp. Kunstig intelligens kan brukes til å løse problemer, men vi mennesker må sørge for at maskinene ender opp med å løse de riktige problemene. Avveiningene, og dermed ansvaret, ligger hos mennesker.
Hvordan kan vi vite når det er trygt å overlate en oppgave til en maskin, og hvem skal være ansvarlig når en maskin feiler? Hvorfor vil vi i det hele tatt ta sjansen på at maskiner skal gå ut og gjøre noe feil, altså hvorfor lager vi maskiner i utgangspunktet? Hvorfor er maskiner noen ganger hundre ganger smartere enn oss, og andre ganger komplette idioter?
Hvorfor har vi mennesker så lyst til å bygge intelligente maskiner? La oss dykke ned i alle disse spørsmålene, og mange flere, sammen.
DEL 1: STARTEN PÅ DET HELE
Kapittel 1:
Litt nøye utvalgt historie
Verdens mest vellykkede svindel
Erkehertuginne Maria Teresia av Østerrike må ha vært litt av en dame. For å imponere henne bygget oppfinneren Wolfgang von Kempelen det som senere ble kjent som verdens mest vellykkede svindel: Den mekaniske tyrkeren. Dette vidunderet av en maskin stod for de første overskriftene om maskiner som spiller sjakk bedre enn mennesker, allerede på 70-tallet. På 1770-tallet, altså. Maskinen bestod av en mekanisk mann ikledd kappe og turban, sittende på en boks med et virvar av tannhjul og tilsynelatende komplisert maskineri. «Tyrkeren» kunne spille sjakk mot mennesker, og spillet startet ved at den – eller han? – beveget hodet fra side til side, som om han så på sjakkbrettet og planla første trekk. Så skjøt armen hans plutselig frem, og de mekaniske fingrene plukket opp en brikke før de satte den ned på et lovlig felt. Akkurat dette var ikke nok til å imponere 1700-tallets innbyggere, som hadde sett mekaniske dyr med langt mer overbevisende detaljer enn denne grove etterligningen av et menneske. Det banebrytende var selve spillet: Tyrkeren var god i sjakk. Skikkelig god. Selveste Napoleon Bonaparte ble slått av Tyrkeren, og gikk i graven
med troen på at en maskin hadde slått ham i sjakk. Tyrkeren spilte kreativt og tilpasset seg motstanderens stil, spill etter spill. Og skulle noen prøve seg på juks, slik Napoleon gjorde da han utfordret Tyrkeren i 1809, flyttet Tyrkeren brikken tilbake til der den kom fra. Hvis motstanderen prøvde seg på juks gjentatte ganger, mistet Tyrkeren til slutt tålmodigheten og sveipet armen over spillet så brikkene fløy.
Det hele var så klart bare bedrageri, men i form av en imponerende ingeniørbragd: Den intrikate boksen med alle tannhjulene kunne åpnes for inspeksjon, og før hvert spill fikk publikum se inn i den fra alle sider. Dermed var tilskuerne alltid overbevist om at det ikke befant seg noe menneske i boksen.1 Spekulasjonene var likevel mange og inkluderte at en russisk soldat som hadde talent for sjakk og som hadde mistet begge bena i kamp, var den egentlige hjernen i Tyrkeren. Da den endelig ble avslørt i The Chess Monthly på slutten av 1850-tallet, ble det sagt at «ingen hemmelighet har noen gang blitt bevart så godt som den om Tyrkeren». Trikset var at mennesket, som absolutt fantes inni boksen, satt på en stol som kunne bevege seg og dermed unngå å havne i siktelinjen under inspeksjon.
At en sjakkspillende maskin fikk så mye oppmerksomhet, har nok flere grunner, men blant dem var ideen om at en maskin kunne være smartere enn mennesker; ta bedre beslutninger enn mennesker. Og selv om verden fremdeles skulle vente lenge på en maskin som kunne spille sjakk på menneskelig nivå, var maskiner allerede på 1800-tallet godt i gang med å endre både folks liv og hele samfunnsøkonomien.
Dampmaskinen har blitt et ikon for 1700-tallets oppfinnelser av maskiner som gjorde kraft tilgjengelig på en måte og i et omfang ingen dyr, mennesker eller daværende teknologi kunne måle seg med. Overgangen fra menneskelig håndverk til maskinell produksjon startet i England og spredte
seg raskt gjennom Europa og til USA, og ble et vendepunkt i moderne industri. I stedet for at mennesker produserte varer, ble det bygget maskiner som produserte varene mer effektivt, og den jordbruksbaserte økonomien skiftet brått over til en industriell og maskinbasert økonomi. I den vestlige verden, der de aller fleste var bønder og levde av jorden, medførte dette en komplett omveltning i levemåte. Og Den mekaniske tyrkeren havnet midt i denne tiden. Da er det ikke rart at tanken på en maskin som ikke bare kunne jobbe, men også tenke mer effektivt enn mennesker, skapte både fascinasjon og bekymring. For selv om Tyrkeren ikke var direkte intelligent, passet den inn i forestillingen om en meget mulig fremtid, der maskiner kunne tenke selv og kanskje ende opp med å ta over for menneskene.
Dessverre, eller kanskje heldigvis, viste det seg likevel at Tyrkeren hadde mer til felles med dampmaskinen enn med mennesker. Gitt at den ikke tok sjakkbeslutningene selv, var den bare et mekanisk verktøy som kunne flytte på brikker. Både Tyrkeren og dampmaskiner trenger mennesker for å operere dem og er ikke i stand til å ta beslutninger selv.
Selv om det skulle ta lang tid før maskiner som tar beslutninger på egen hånd ble en del av virkeligheten, liker jeg å tro at 1800-tallets mennesker likevel lot seg fascinere av tanken. Kanskje leste de om «Maskinen» («The Engine») i Gullivers reiser av Jonathan Swift, og hadde sterke meninger om hvorvidt en tenkende maskin kunne bygges.2 Og kanskje fulgte de aller ivrigste av dem med på teknologinyheter og fikk med seg da verden så sin første algoritme, allerede tidlig på 1800-tallet.
Algoritmer
Ja, algoritmer fantes lenge før kunstig intelligens. Selv om ordet i dag ofte brukes i media for å beskrive dataprogrammer som analyserer dataene våre eller får oss til å gjøre ting, er algoritmer mye mer enn bare dét. Tørt forklart er en algoritme en samling instruksjoner som kan utføres i en bestemt rekkefølge for å oppnå et mål, og det klassiske eksempelet er en matoppskrift. Hvis oppskriften ikke inneholder alle instruksjonene som trengs, blir ikke matretten noe av. Hvis instruksjonene kommer i feil rekkefølge, blir oppskriften også umulig å følge. Vi mennesker er ganske flinke til å lage algoritmer til hverandre, og hver gang du skal beskrive hvordan noe gjøres, lager du en algoritme. Hvis jeg trenger å låne mel av deg, kan det hende at du svarer: «Ja, det kan du, men jeg er ikke hjemme så du må låse deg inn selv. Bruk nøkkelen som ligger under matta, gå inn på kjøkkenet og se i den nederste skuffen ved siden av kjøleskapet.» Da ville du gjort meg i stand til å låne mel av deg, og jeg ville takket deg for å lage algoritmen som gjorde det hele mulig.
Algoritmer er det som får datamaskiner til å fungere, og ingen datamaskin kan fungere uten instruksjonene fra algoritmer. Å lage gode algoritmer for datamaskiner er langt ifra enkelt, fordi datamaskiner må ha inn hvert eneste steg med teskje, og fordi det ikke er åpenbart hva som er den beste måten å løse et problem på. Hos teknologiselskaper som er kule å jobbe for, handler intervjuspørsmålene ofte om å beskrive eller lage gode algoritmer på sparket.
Å lage algoritmer er kanskje noe av det morsomste som finnes, ikke fordi det er så gøy å forklare ting for datamaskiner, men fordi det er gøy å tenke seg frem til den beste måten å
løse problemer på. Det samme syntes grevinne Ada Lovelace, som fort gikk lei av typiske grevinneaktiviteter og heller viet
livet sitt til datavitenskap. I 1843 skrev hun verdens første algoritme for datamaskiner og regnes derfor som verdens første programmerer. Sammen med oppfinneren Charles Babbage jobbet hun også i mange år med å designe verdens første mekaniske datamaskin. Denne ble ikke bygget, fordi forskningsmidlene tørket ut, og fordi Babbage kranglet med sjefsingeniøren sin.3 Men selv om det ikke ble noe av selve datamaskinen i denne omgangen, var algoritmen likevel oppfunnet, og ideen om at en maskin kan utføre en hvilken som helst prosess, var født.
Datamaskiner
Tanken på datamaskiner fantes lenge før de første datamaskinene ble bygget, og de første som faktisk ble bygget ligner ikke det minste på datamaskinene vi bruker i dag. Den største forskjellen er nok at de første datamaskinene var analoge: De ble bygget for å utføre én spesifikk oppgave. Skulle de løse en annen oppgave, måtte de bygges om. Hvis en slik datamaskin skulle løse et matematisk problem, ble den derfor til en fysisk manifestasjon av det matematiske problemet – rett og slett en analogi. Dette høres kanskje abstrakt og vanskelig ut, men jeg tør vedde på at du har rukket å bruke en analog datamaskin senest i dag. Barn lærer ofte å legge sammen og trekke fra ved hjelp av fargerike kulerammer der de kan flytte perler rundt på tynne stenger. Vi mennesker har brukt disse såkalte abacus-ene til å regne siden antikken, og mange vil kanskje mene at det er å dra det for langt å kalle dem maskiner, men de illustrerer likevel hvordan analoge datamaskiner fungerer: De tar inn analoge data, altså fysiske størrelser rett fra virkeligheten. Disse trenger ikke konverteres til tallverdier eller tilnærminger, men går rett inn i maskinen. Den analoge maskinen gjør beregninger direkte ved å måle de kontinuerlige
endringene som skjer i fysiske størrelser, og presenterer resultatet fra beregningen som en avlesning av en måling. En miniversjon av dette er et kvikksølvtermometer, hvor vi ikke leser av et tall fra et display, men heller gjør målingen selv, ved å se hvor høyt kvikksølvet har klatret. Enda mer avanserte analoge datamaskiner fra hverdagen er mekaniske armbåndsur og speedometre på biler. Er det én ting du skal huske her (fordi det blir viktig senere), er det at programvaren, software på engelsk, og selve maskinen, hardware på engelsk, er det samme for analoge datamaskiner.
Fordelen med analoge datamaskiner er at de tar inn dataene sine direkte, og det derfor ikke er nødvendig å gjøre om målinger til tall, med komplikasjonene og feilkildene det kan medføre. Men den store svakheten til analoge datamaskiner er at de kun kan løse akkurat det problemet de ble bygget for.
Gödel, Turing og von Neumann
Nå skal vi møte tre matematikere som var uunnværlige for utviklingen av moderne datavitenskap, og hvis bidrag fremdeles gir både forskere og studenter hodebry den dag i dag: Kurt Gödel, Alan Turing og John von Neumann. I 1931 presenterte Gödel et bevis som rystet verden så mye at det fremdeles merkes i dag. Han viste at ingen matematiske systemer kan være både komplette og konsistente, som en matematiker ville sagt det.4 Dette betyr at man ikke kan lage et logisk system der alt som er sant kan bevises, og som samtidig er helt uten selvmotsigelser. Tenk på utsagnet «denne setningen er en løgn». Faktisk er det pussig at det går an å lage slike utsagn, hvis vi tenker over det. Og akkurat dét gjorde Gödel òg: Han tenkte på systemer som lager utsagn om seg selv, og endte opp med å vise at dette betyr trøbbel i matematikkens verden.
Alan Turing ble dypt fascinert av Gödels bevis og lurte på hva det ville ha å si for datamaskiner. I 1937 klarte Turing å bevise to ting, som begge regnes blant de mest innflytelsesrike resultatene innen datavitenskap. Det ene han beviste, var at det er umulig å lage et dataprogram som kan finne ut om en algoritme kan fullføres, altså om en beregning kommer til å bli ferdig. Dette problemet kalles the halting problem, og selv om det kanskje virker som et litt snodig problem å bry seg med, finner vi det igjen overalt. Hvis man for eksempel har et antivirusprogram og har lyst til å vite om det noensinne kommer til å utføre en ondsinnet handling mot datamaskinen, har man møtt på the halting problem og må gi opp (hilsen Turing, anno 1937).
Beviset for at det ikke er mulig å bevise at en algoritme kommer til å bli ferdig, er forresten vidunderlig snedig, og helt i Gödels ånd. La oss anta at det finnes et program som kan finne ut om en algoritme vil bli ferdig før eller siden. Vi kan kalle dette programmet «VIL_STANSE». Deretter kan vi skrive følgende lille dataprogram:
INGAS_ALGORITME:
Hvis INGAS_ALGORITME kommer til å bli ferdig: Utfør denne instruksjonen for alltid
Hva kan programmet VIL_STANSE nå si om INGAS_
ALGORITME? Hvis INGAS_ALGORITME kommer til å bli ferdig, kommer INGAS ALGORITME til å vente for alltid – altså aldri bli ferdig. Vi skjønner at vi har kommet frem til en selvmotsigelse (og muligens litt hodepine) – og har dermed også bevist at programmet VIL_STANSE ikke kan eksistere.
Det andre Turing beviste, var at det kan finnes maskiner som er i stand til å utføre en hvilken som helst matematisk beregning, så lenge den er formulert som et sett instruksjoner
–altså som en algoritme. Denne tenkte maskinen har fått navnet Turingmaskinen. Med ideen om Turingmaskinen var tanken om skillet mellom en maskin som utfører beregninger, populært kalt hardware, på den ene siden, og selve beregningene på den andre siden, kalt software, født. Denne tanken er vanlig for oss moderne mennesker som er vant til å installere nye programmer på den gamle datamaskinen (og stadig nye apper på den samme telefonen), men skillet mellom hardware og software var alt annet enn åpenbart. De eneste beregningsmaskinene som fantes før Turing, var den analoge datamaskinen og den menneskelige hjernen. For begge disse maskinene er hardware og software det samme. Selv om det ikke er åpenbart ved første (eller andre) øyekast, er Turings to beviser en stor del av fundamentet moderne datamaskiner står på.
Selv om Turingmaskinen er enda så genial, er den fremdeles bare et abstrakt konsept. Turing beviste at en slik maskin kan finnes i teorien, men som kjent er det ofte langt fra idé til produkt. For å bygge en maskin som kan utføre en hvilken som helst beregning, trengs konkretisering. Her kommer den tredje helten inn, nemlig John von Neumann. Han designet oppsettet vi fremdeles bygger moderne datamaskiner etter, så neste gang du snurrer i gang PC-en din, kan du sende John en varm tanke og takke ham for von Neumann-arkitekturen. I denne oppbyggingen, eller arkitekturen, har datamaskiner én sentral komponent som utfører beregninger, og en annen komponent som står for lagring. Når beregninger skal utføres, må de nødvendige ingrediensene derfor hentes fra minneenheten, og hvis resultatet fra en beregning skal lagres, må det flyttes fra beregningsenheten og inn i minneenheten. Datamaskinen din fungerer på samme måte: Det aller meste ligger trygt lagret i minneenheten, og kun det som trengs for en beregning, flyttes til beregningsenheten. Eller, for å være
mer presis bør jeg legge til at det ligger en del grums mellom beregningsenheten og minneenheten i dagens datamaskiner, for å gjøre lagring og beregning både raskere og enklere. Men hvis vi myser litt, ser moderne datamaskiner fremdeles ut som von Neumann tegnet dem i sin tid.
Den siste ingrediensen i von Neumann-arkitekturen er to enheter som sørger for at mennesker kan kommunisere med maskinen. En enhet tar inn kommandoer fra mennesket og gir dem til beregningsenheten, mens en annen enhet henter ut informasjon fra beregningsenheten, så et menneske (eller en annen maskin, for den del) kan få nytte av den. Figuren under er en enkel versjon av von Neumann-arkitekturen, og i så måte en slags tegning av laptopen din.
Inn Ut Beregningsenhet
Minneenhet
Von Neumann-arkitekturen var en grunnleggende ny måte å designe datamaskiner på, og den revolusjonerte moderne datavitenskap. Den beskriver en maskin som kan ta inn et hvilket som helst sett instruksjoner, så lenge maskinen forstår dem, og gjøre beregninger på dem. Den første von Neumann-maskinen stod ferdig i 1952. Det samme året fant matematikeren Grace Hopper opp det første programmet som lar datamaskiner oversette ord, spesifikt engelske ord, til datamaskinspråk. Før den tid måtte datamaskiner programmeres direkte med 0-er og 1-ere. Å skrive 0-er og
1-ere er ikke en veldig morsom oppgave for oss mennesker som er vant til å formulere oss ved hjelp av ord. Det Grace Hopper laget, var verdens første såkalte kompilator.
Allerede på denne tiden, før datamaskiner engang var ferdig oppfunnet, grublet forskerne på hvorvidt presise instruksjoner til datamaskiner er nøkkelen til å gjøre dem intelligente. Særlig ett svar John von Neumann ga under en forelesning, illustrerer holdningen hans godt: En publikummer hadde kommentert at det er umulig for en maskin, i alle fall en menneskeskapt maskin, å tenke, og von Neumann svarte: «Du insisterer på at det finnes noe en maskin ikke kan gjøre. Hvis du forteller meg nøyaktig hva det er en maskin ikke kan gjøre, så kan jeg alltid lage en maskin som gjør nettopp det!»5 En ting som virkelig er morsomt å tenke på, er at vi fremdeles bygger opp datamaskinene våre etter von Neumann-arkitekturen, men også fremdeles ikke vet om de kan romme faktisk intelligens.
Med utviklingen av datamaskiner midt på 1900-tallet tok kunstig intelligens uansett endelig steget fra svindelog-drømmeland via idéverdenen til moderne vitenskap, og arbeidet med å lage datamaskiner som tenker som mennesker, var i gang.
Et fagfelt blir født
Det er ikke mange vitenskapelige felt som har en så veldefinert start som kunstig intelligens. Det hele skjedde på en liten workshop ved Dartmouth College på østkysten av USA, organisert av den unge forskeren John McCarthy, som senere ble en av de desidert mest innflytelsesrike forskerne innen kunstig intelligens. Før han begynte på Dartmouth, studerte McCarthy matematikk ved Princeton, hvor han møtte en annen kommende stjerne innen kunstig intelligens, Marvin Minsky. De to fant raskt tonen og innså at de hadde en felles
lidenskap for spørsmålet om datamaskiners mulige intelligens. Da McCarthy så begynte ved Dartmouth i 1955, overtalte han Minsky og to andre medstudenter til å hjelpe ham å organisere en liten workshop. Han så bokstavelig talt for seg en to måneders samling der ti mennesker i løpet av sommeren 1956 skulle finne ut av disse «intelligente datamaskiner»-greiene. I den forbindelse fant McCarthy også på termen artificial intelligence (AI) – kunstig intelligens – i hovedsak for å skille feltet fra det beslektede feltet kybernetikk.
Forskjellen mellom kunstig intelligens og kybernetikk er subtil, men grunnleggende. Begge feltene handler om å studere intelligente systemer, men mens kunstig intelligens har som formål å skape maskiner som etterligner menneskelig atferd og intelligens, handler kybernetikk om å forstå hvordan intelligente systemer – det være seg biologiske eller mekaniske – prosesserer informasjon. Sagt med få ord er kybernetikk studiet av kommunikasjon og kontroll, mens dette nye feltet artificial intelligence var – og er! – bestrebelsen etter å skape intelligens i et kunstig system. Etter at navnet var etablert, har McCarthy forresten sagt at ingen egentlig likte betegnelsen artificial intelligence, men at de nå engang trengte et navn.
Sammen søkte de fire studentene sommeren 1956 om forskningsmidler til å finansiere workshopen sin, og i søknaden listet de opp blant annet resonnering, maskinlæring, nevrale nettverk, kreativitet og språkforståelse som temaer de ville utforske. De skrev at «ethvert aspekt ved intelligens eller læring kan i prinsippet uttrykkes så presist at en maskin kan simulere det» – og dermed var feltet grunnlagt. Og selv om det hele var fort gjort den gang, er grunnlaget McCarthy og medstudentene hans la denne sommeren, fremdeles fundamentet for selv moderne forskning innen kunstig intelligens. Den dag i dag er det fremdeles de samme begrepene – maskinlæring, nevrale nettverk, språkforståelse og så videre – vi forsker på,
og den grunnleggende tanken om at læring og intelligens kan simuleres av datamaskiner, er fremdeles regjerende på feltet.
At et helt felt kan grunnlegges og defineres for mange tiår fremover av en gjeng glade studenter i løpet av en sommer, må enten bety at disse studentene er usedvanlig begavede, eller at feltet er betraktelig vanskeligere enn de forventet. Sannheten er nok litt av begge. Særlig fire av studentene – John McCarthy, Marvin Minsky, Herbert Simon og Allen Newell – endte opp som pionerer på feltet og kan trygt telles som «de fire store» innen kunstig intelligens. Samtidig var dette bare den første av mange ganger mennesker har undervurdert hvor komplisert veien til kunstig intelligens skulle bli, og fremdeles er. Gang på gang har vi trodd at vi står like før det store gjennombruddet som vil få maskiner til å tenke selvstendig, og gang på gang har vi innsett det motsatte.
Studentene våre avholdt sommermøtet og la planer med en enorm optimisme. Men 20 år senere, på 1970-tallet, var vi fremdeles milevis unna å løse intelligensgåten. Det fantes for eksempel fremdeles ingen datamaskin som kunne slå gode sjakkspillere. Det fantes riktignok programmer som kunne holde seg til reglene og gi amatører en utfordring, men det var alt. Faktisk skulle det ta helt til midten av 1990-tallet før sjakkmestrene fikk virkelig motstand fra maskinene.
Sjakk matt
Det er enkelt å få en datamaskin til å forstå reglene i sjakk. Men å lære den å velge mellom alle mulige trekk er uhyre tungt og beregningskrevende. Å mestre sjakk handler om å vite hva som kommer til å skje i fremtiden, og velge trekk deretter. For å velge neste trekk i et spill må en sjakkcomputer bygge et stort søketre som inneholder alle mulige fremtidige trekk fra begge spillere – den selv og motspilleren. Dette er et eksempel på en
bitte liten del av et slikt tre, hvor hvite sirkler representerer maskinens trekk og svarte firkanter motstanderens trekk:
I bunnen av treet finner vi utfallene til alle de mulige spillene; 1, 0 og –1 for seier, uavgjort og tap. Gitt et slikt søketre kan en sjakkcomputer finne ut hvilket trekk som er det beste6 ved hjelp av en algoritme som heter Minimax. Denne algoritmen ble laget av John von Neumann i 1928 – ja, lenge før kunstig intelligens engang var et fagfelt – og tilpasset sjakkens bruk av Claude Shannon (som også var til stede under konferansen i Dartmouth i 1956) i 1950. Algoritmen handler om å jobbe seg oppover fra det siste trekket, velge den beste posisjonen fra hver mulige posisjon motstanderen kan ta, altså maksimum. På neste nivå antar den at motstanderen vil velge den dårligst mulige posisjonen for en selv, altså minimum. Disse maksimum/minimum-greiene er opphavet til algoritmens navn: Minimax. Helt til slutt velges den beste av de tre høyest rangerte posisjonene som beste trekk. Deretter er det motstanderens tur til å gjøre et trekk, og … sjakkcomputeren må bygge et helt nytt tre basert på den nye posisjonen på brettet, og gjøre hele minimax-leken igjen. Og sånn går det trekk for trekk, helt til spillet er over. Minimax er mildt sagt en smart idé, men hvis man stirrer litt på et sjakkbrett, innser man raskt et enormt problem: Det er umulig å se for seg alle
mulige spill som kan utvikle seg på brettet, eller søke gjennom hele treet, som en sjakkcomputer måtte gjort. Hvis det i gjennomsnitt er mulig å gjøre 35 trekk fra en gitt posisjon, og et sjakkspill varer i rundt 80 trekk, får vi et søketre med 35⁸⁰ mulige posisjoner. Dette tallet er helt enormt. Vi kan skrive det som 10¹²³, altså et 1-tall med 123 nuller bak. Det er så mange posisjoner Minimax måtte tatt for seg for å si noe om verdien til en stilling.7 Til sammenligning består hele universet, med alt interstellart støv og alle galaksene vi vet om, av rundt 10⁷⁵ atomer. Dette betyr to ting. Det ene er at sjakken som spill sannsynligvis aldri vil kunne løses nøyaktig. Vi kan ikke vite om hvit vil vinne hvis den spiller perfekt, eller om det perfekte sjakkspill ender i remis. Sjakk er sånn sett en av universets gåter – og det er jo litt vakkert. Det andre er at sjakkcomputeren umulig kan søke gjennom hele treet, og vi derfor må gjøre noen triks. Tre stykker, for å være presis.
Det første trikset – som virkelig skiller gode sjakkcomputere fra dårlige – er å lage en evalueringsfunksjon som sier noe om hvor god en posisjon er, uten å måtte søke i treet. En middels god sjakkcomputer kan for eksempel sammenligne antallet brikker hver spiller har. En litt bedre sjakkcomputer vil vekte ulike brikker, siden en dronning er verdt mer enn en bonde, og så videre. Uansett hvor avansert denne funksjonen er, gir den til slutt et tall som sier noe om hvor god en posisjon er.
Så til neste triks: Siden ingen maskin kan søke gjennom hele treet, må vi gi den en regel om maksimal dybde å søke til.
«Bare se fem trekk frem i tid», kan regelen lyde. Men denne regelen kan gi oss et alvorlig problem: Det femte trekket frem i tid kan innebære at maskinen bruker dronningen sin til å ta en av motstanderens bønder, som er bra. Men hva om denne bonden ble beskyttet av en annen bonde, slik at motstanderen ender opp med å ta maskinens dronning med en bonde, på trekk seks? Dette vil maskinen ikke kunne ta høyde for og
derfor evaluere posisjonen fem trekk frem i tid helt feil. En algoritme ved navn quiescence-søk ble utviklet for å løse dette problemet, og den innebærer at maskinen først stopper søket sitt idet den når en stabil posisjon, der alvorlige ting som «bonde tar dronning» ikke kan skje.
Og så til siste triks: Regnekraft er blant de mest verdifulle ressursene søkealgoritmer har. For å spare regnekraft er det viktig å innse at noen fremtidige posisjoner er helt håpløse og ikke verdt å undersøke. For å se hvilke fremtidige spill som er verdt å forfølge nedover i treet og hvilke grener som er uinteressante, brukes en algoritme som heter alpha-beta pruning. Pruning betyr beskjæring, og hensikten er simpelthen å virtuelt skjære vekk uinteressante grener fra treet – akkurat som vi kan skjære vekk dårlige grener på et frukttre. Disse ingrediensene – minimax med fast dybde, quiescence-søk og alpha-beta-beskjæring – er hjørnesteinene til alle sjakkcomputere, inkludert Stockfish som styrer pilen på NRKs sjakksendinger. I dag kan Stockfish beseire hvilken som helst menneskelig sjakkspiller kun ved bruk av regnekraften vi finner i en vanlig iPhone – men all denne regnekraften har ikke alltid vært tilgjengelig for oss.
Professor Edward Fredkin stod bak mange viktige fremskritt innen kunstig intelligens. Likevel er han kanskje mest kjent for å ha gitt navnet til en forskningspris, annonsert i 1980 av Carnegie Mellon-universitetet. Fredkin-prisen, pålydende 100 000 amerikanske dollar, skulle motivere informatikere til å skape en datamaskin som kunne slå verdens beste sjakkspiller. Men forskeren som skulle ende opp med å vinne Fredkinprisen, hadde aldri hatt ambisjoner om å vinne den. Seieren var heller et resultat av tilfeldigheter, og en doktorgrad som tok en annen retning enn først tenkt. Helten i historien er den unge doktorgradsstudenten Feng-hsiung Hsu, som hadde
lite til overs for kunstig intelligens. Hsu begynte å jobbe på doktorgraden sin ved Carnegie Mellon-universitetet i 1985 og har i etterkant sagt at han ikke anså kunstig intelligens for å være «bullshit» som sådan, men hadde «sett en del forskning innen kunstig intelligens som virkelig fortjente bullshitmerkelappen».8 Hsu hadde heller ingen særlig interesse for datamaskiner som spilte sjakk, men var snarere en praktisk anlagt informatiker med en forkjærlighet for ingeniørproblemer – særlig de som angikk datamaskiners minste byggeklosser, de såkalte chipene. Enkelt forklart er en chip en bitte liten plate med en elektrisk krets på, som sammen med andre små deler utgjør datamaskiner. Og var det noe Hsu likte, så var det å lage stadig bedre chiper.
I dag kan du gjøre mobilen eller PC-en din til en sjakkmester gjennom å kjøpe riktig app eller program, selv om ingen av de to er spesifikt bygget for å spille sjakk. Det er selve sjarmen til digitale datamaskiner at de kan utføre et hvilket som helst program uten å være bygget for det. Men på slutten av 1980-tallet stod sjakkcomputere overfor en stor utfordring når det gjaldt beregningsevne: Selv gitt de tre triksene vi har vært gjennom, blir en sjakkcomputer bedre jo flere potensielle fremtidige stillinger den har kapasitet til å utforske. De beste sjakkcomputerne var derfor designet og bygget spesifikt for raske søk. Og én viktig ingrediens i skreddersydde datamaskiner er gode chiper. Omstendighetene gjorde derfor at Hsu og medstudentene hans ble rekruttert til å delta – om enn noe motvillig – i sjakkturneringer for datamaskiner.9 Den første turneringen Hsu deltok i, var på syv ukers varsel og innebar derfor mye utvikling med litt for mye press og litt for lite testing. Han og teamet deltok med et program de kalte ChipTest, for å understreke at programmet ikke var ferdig testet. Utfallet ble middelmådig, men allerede året etter vant de en overlegen seier. På dette tidspunktet søkte
ChipTest gjennom 500 000 fremtidige sjakktrekk per sekund. Veien derfra til virkelig gode sjakkcomputere skulle innebære en kraftig økning i antall sjakktrekk maskinen klarte å søke gjennom.
Da Hsu først begynte å jobbe med det som skulle bli ChipTest, ble det estimert at om hastigheten til hardwaren kunne økes tusen ganger, kunne det bli mulig å lage en kunstig verdensmester i sjakk. Den ingeniørmessige utfordringen dette utgjorde, var nok til å tenne en gnist i Hsu, og hans motivasjon lå i å finne ut om en solid økning i hastigheten virkelig var tilstrekkelig for å løse sjakkproblemet. Å slå verdens beste sjakkspiller regnet Hsu som en eventuell bonus.
Etter å ha avsluttet doktorgraden sin, som endte opp med å dreie seg om ChipTest og sjakkturneringer, fikk Hsu jobb i IBM. Der ble ChipTest videreutviklet til Deep Thought, som utvilsomt høres mer Terminator-aktig ut enn ChipTest.10 I
1989 utfordret Deep Thought den regjerende verdensmesteren
Garri Kasparov for første gang, og Kasparov beseiret Deep Thought med letthet i spillets to kamper.
Det Hsu måtte klare, var å finne en smart måte å søke gjennom tilstrekkelig mange mulige fremtidige trekk. Nettopp dette klarte han, og i samarbeid med mange andre ingeniører brukte han en hel doktorgrad etterfulgt av et tiår med utvikling på å få det til. Arbeidet kulminerte i et beist av en sjakkcomputer ved navn DeepBlue, som skulle ende opp med å bli den første maskinen i verden som beseiret en regjerende verdensmester. Nå hadde det vært utrolig gøy å fortelle deg om det geniale knepet Hsu fant ut, og som gjorde at datamaskiner kunne ta steget til å bli sjakkmestere. Men noe slikt knep fantes dessverre ikke. Det Hsu gjorde i løpet av de årene han jobbet med sjakkcomputere, var solid ingeniørkunst kombinert med godt algoritmedesign. Han bygget spesialtilpassede chiper og jobbet intenst med å få sjakk-algoritmene til å bli så lite
beregningstunge som overhodet mulig. I tillegg jobbet han sammen med stormesterne Miguel Illescas, John Fedorowicz og Nick de Firmian for å finjustere evalueringsfunksjonene. DeepBlue inneholdt altså store mengder aktuell sjakkvisdom i tillegg til avanserte algoritmer og regnekraften Hsu hadde brukt hele karrieren sin på å gi den. Det hele ga uttelling, og den 10. februar 1996 beseiret DeepBlue den regjerende verdensmesteren Garri Kasparov. Dette er likevel ikke den berømte datoen: Ikke før våren 1997 møttes Kasparov og DeepBlue til en kamp hvor de offisielle reglene for sjakkturneringer ble overholdt. Gjennom seks spill fordelt over åtte dager ble DeepBlue den udiskutable vinneren. Den 11. mai 1997 ble en merkedag i AI-historien: For første gang måtte menneskene overlate sjakk-tronen til maskinene.
Resonneringens bananflue
Garri Kasparov hadde spilt mot sjakkcomputere flere ganger tidligere. Allerede i 1985 spilte Kasparov samtidig mot 32 av verdens beste sjakkcomputere og beseiret samtlige av dem. Som Kasparov har sagt i ettertid: «For meg var dette gullalderen. Maskiner var svake, og håret mitt var sterkt!»11
Tolv år senere hadde Kasparov nok med å konsentrere seg om én sjakkcomputer – som altså endte opp med å beseire ham. Da hadde Kasparov vært verdensmester i over ti år. I forkant av spillet mot DeepBlue hadde han bedt om å få studere andre partier DeepBlue hadde spilt, men IBM avslo. Kasparov var vant til å anslå motstanderens strategi, observere kroppsspråket deres og se dem i øynene. Å sitte overfor DeepBlue ga ham en ny følelse, noe urovekkende. Jeg ser for meg at kanskje fabrikkarbeidere hvis arbeidskapasitet ble beseiret av dampmaskinen under den første industrielle revolusjonen, hadde den samme følelsen. På forsiden av
Newsweek ble kampen mellom Kasparov og DeepBlue omtalt som «the brain’s last stand». Etter 1997 lurte Kasparov på om DeepBlue var uovervinnelig, og om sjakken nå var løst, beseiret, over. Han sier selv at han følte tvil og frykt. Kanskje følte han til og med en eksistensiell frykt. Som Kasparov har påpekt, følte nok ikke DeepBlue på den samme frykten.12 Hsu hadde et helt annet syn på saken. Han sa at «konkurransen var egentlig mellom to mennesker i ulike roller: mennesket som utøver og mennesket som verktøymaker».13 DeepBlue hadde hverken intuisjon eller erfaring, som Kasparov derimot hadde imponerende mye av. DeepBlue vant på regnekraft, avanserte søkealgoritmer og evalueringsfunksjoner utviklet av menneskelige eksperter over mange tiår. Kort sagt beregnet
DeepBlue seg til seieren. I dag er det ingen som blir skremt eller overrasket over at datamaskiner beseirer sjakkmestre, noe mer enn vi blir satt ut av at en motorsykkel kjører raskere enn
Usain Bolt klarer å løpe. DeepBlue søkte gjennom svimlende 200 millioner posisjoner i sekundet. Denne prosessen ligner lite på det vi mennesker gjør når vi spiller sjakk – akkurat som flyene våre ikke flakser med vingene sine. DeepBlues metode er det vi innen programmering kaller brute force: Med rå kraft regnet den seg frem til det beste svaret.
Maskinenes dominans av sjakken har dog ikke gjort spillet mindre interessant for oss: Selv om hver eneste smarttelefon kan kjøre sterkere sjakk-apper enn det DeepBlue var i 1997, følger vi våre menneskelige sjakkmestre med spenning, og vi spiller mer sjakk enn noensinne. I 2018 påpekte også Kasparov at sjakken, i tillegg til å være et fascinerende spill, er for en resonneringens bananflue å regne. For akkurat som Drosophila melanogaster – også kjent som bananfluen – er en nyttig organisme for genforskere, har sjakken blitt «et laboratorium for kognisjon». Faktisk tror jeg vi trygt kan si at sjakken er det mest utførlig studerte domenet innen kunstig intelligens,
og fremdeles i 2020-årene bruker vi sjakk for å utvikle og undersøke maskinell intelligens.
For mennesker handler sjakkspill om abstrakt tenkning, om strategi, mønstergjenkjenning, dyp konsentrasjon og ofte også psykologi. Mennesker mestrer ikke sjakk gjennom å evaluere mange millioner stillinger i sekundet. Det er noe mer der, noe vi mennesker har forstått. Og det er jo nettopp det vi er ute etter i intelligente maskiner. Dette mystiske som er forståelse.
Universets beste sjakkspiller
Selv om DeepBlue var en fantastisk bragd av ingeniørkunnskap og spilte sjakk på en intelligent måte, vil de færreste av oss tenke på maskinen som intelligent. Denne følelsen er et framifrå eksempel på et historisk fenomen som er så vanlig at det har fått et eget navn: The AI effect. Denne «AI-effekten» beskriver fenomenet vi observerer omtrent hver gang noen klarer å lage en datamaskin som løser et problem vi trodde at krevde intelligens – for eksempel å spille sjakk – og vi ombestemmer oss og sier: «Å ja, men det er jo ikke intelligens! Det er jo bare en beregning!» Og det er ikke godt å si hva som skal til for at vi mennesker skal bli overbevist av intelligensen til en maskin. Må den være tilpasningsdyktig, må den ha bevissthet, må beregningen den utfører, være uforståelig for oss, litt på samme måte som menneskehjernen fremdeles er et mysterium for oss? Tenk litt over det. Hvis du lander på det siste kriteriet, at maskinen må gjøre noe litt mystisk, er du ikke alene.
På 1980-tallet analyserte sjakkmesteren og filosofen Eliot Hearst hvor ulikt mennesker og maskiner oppfører seg når de spiller sjakk.14 Sjakkcomputerne bruker smarte algoritmer og dernest lynraske søk gjennom enorme antall mulige utfall av potensielle trekk, for å regne ut vinnersannsynligheten til
hvert av dem. Menneskelige sjakkspillere gjør derimot noe helt annet, noe også eksperimentene til Hearst viste. Det vi mennesker gjør, er både langt raskere og mer energibesparende: Vi gjenkjenner mønstre på sjakkbrettet. Slik klarer de beste sjakkspillerne blant oss å se direkte på en posisjon hvilken type strategi som egner seg best. Mennesker som virkelig har skjønt sjakk, har med andre ord skjønt noe overordnet, noe konseptuelt, som gjemmer seg i brikkenes kombinasjoner –og som dessuten har lite å gjøre med søk gjennom millioner av mulige trekk. Hearst mente at med mindre datamaskiner lærte seg å gjenkjenne mønstre og forstå abstrakte konsepter på samme måte, ville de aldri kunne spille sjakk som mennesker. Mens vi kan tenke at tradisjonelle sjakkcomputere som DeepBlue vinner gjennom rå styrke, og at kapasiteten deres til å evaluere enorme antall spillposisjoner kompenserer for deres manglende intuisjon for spillet, kan vi også tenke motsatt på det hele: Siden vi mennesker ikke har kapasitet til å tenke mer enn et titall mulige spill fremover, har vi vært tvunget til å utvikle en annen evne for å spille sjakk, nemlig denne intuisjonen. I senere tid har utviklingen innen kunstig intelligens ført til sjakkcomputere som behersker en kombinasjon av de to, altså både raske søk og en mønstergjenkjenning som minner om intuisjon for spillet.
Den 5. desember 2017 ble AlphaZero introdusert for verden. Dette er en sjakkcomputer av den mest moderne sorten, skapt av et av verdens ledende miljøer innen forskning på kunstig intelligens, firmaet DeepMind (som ble kjøpt opp av Google i 2014). Det hadde ikke tatt mange tiår å utvikle AlphaZero; faktisk hadde den på bare 24 timers spilling mot seg selv lært seg å spille sjakk på overmenneskelig nivå.
DeepMind kunne fortelle at AlphaZero ikke bare spilte på et overmenneskelig nivå, men også utkonkurrerte ledende sjakkcomputere som Stockfish. AlphaZero lærte seg å spille
sjakk gjennom å trene for seg selv. Det er greia med «zero» i navnet: Den kunne ingenting – zero – da den begynte å spille imot seg selv. Og i løpet av et døgn hadde den tilsynelatende utviklet seg til å bli universets beste sjakkspiller – med mindre noen har funnet opp sjakk på en annen planet. Men vi må huske på at ett døgn for mennesker kan være mye rart inni en datamaskin. DeepMind – og alle store teknologiselskaper – har tilgang til ufattelig store beregningsressurser. Dagens versjon av AlphaZero har perfeksjonert sjakkevnene sine gjennom 44 millioner spilte partier. Det hadde tatt måneder på en datamaskin de fleste av oss har råd til å kjøpe.
Det AlphaZero lærte seg gjennom sine 44 millioner spill, var i bunn og grunn å utvikle intuisjon der DeepBlue trengte menneskeskapte algoritmer og regnekraft. AlphaZero plukker ikke ut neste sjakktrekk, men bestemmer hvilke trekk den mener er verdt å se nærmere på. Basert på denne utvelgelsen bestemmes deretter neste trekk ved hjelp av samme type tresøk som DeepBlue og Stockfish gjør. AlphaZero kombinerer altså en slags maskinell intuisjon for sjakk med maskinell beregningsevne. Det anslås at de beste menneskelige sjakkspillerne klarer å gjøre hundrevis av søk på det aller meste – altså se for seg maksimalt hundrevis av mulige fremtidige spill. Stockfish og andre tradisjonelle sjakkcomputere gjør i dag millioner av søk, mens AlphaZero, takket være sjakk-intuisjonen den har lært seg frem til, «kun» trenger å gjøre titusenvis av søk per stilling.
Det som kanskje gjør AlphaZero mest interessant, er at den har utviklet en ikke-menneskelig spillestil. For mens tradisjonelle sjakkcomputere er basert på menneskelig ekspertkunnskap, har AlphaZero lært å spille sjakk gjennom å spille fritt. Under treningen spiller den hva enn den selv anser for å være det mest lovende trekket. Derfor har den klart å oppdage strategier vi mennesker ikke vet om, og menneskelige
sjakkspillere kan lære noe av å spille mot maskinen. Etter min mening er dette blant det beste vi kan oppnå innen kunstig intelligens: Maskiner som lærer oss noe nytt og verdifullt. I så måte har sjakken blitt noe mer enn et laboratorium for intelligens: Spillet har gitt maskinene anledning til å demonstrere at de gjennom prøving og feiling kan tilegne seg kunnskap vi mennesker ikke har, og ikke kan gi dem.
Maskinenes tid
Føler vi nå, i en verden der AlphaZero har utviklet intuisjon for sjakken, og dessuten oppdaget strategier i sjakken som vi mennesker ikke engang vet om, at ekte kunstig intelligens har oppstått? De fleste jeg kjenner, vil svare nei på dette spørsmålet. Hvorfor det, når våre kunstige sjakkmestere er så gode at vår egen Magnus Carlsen lærer av dem? Kanskje sjakkboksing kan illustrere følelsen. For ja, sjakkboksing finnes på ekte. Sporten inneholder, som du kanskje gjettet, både boksing og sjakk, og man kan vinne enten gjennom å gi motstanderen deng, eller ved å slå motstanderen i sjakk-betydningen av ordet. Og vi vet at en datamaskin som kjører sjakkprogrammet AlphaZero, hverken har en kropp eller anledning til å reise seg opp, ta på seg boksehansker og gå inn i en ring. AlphaZero er liksom «bare» et dataprogram, med et smalt sett av evner. Den kan spille, men den vet jo ingenting om verden – i alle fall ikke på samme måte som vi mennesker skjønner at vi lever i en stor verden full av problemer som ikke har noe med sjakk å gjøre. Så langt har ingen maskin fått anledning til å stille mot et menneske i en sjakkbokseturnering, men det er nok heller av etiske grunner enn av praktiske. Maskiner som kan slå mennesker i svime, finnes allerede. Vi kunne absolutt tatt en av Boston Dynamics’ humanoide roboter, som imponerer oss på YouTube-videoer hvor de slår salto og spretter gjennom hinderløyper, lastet opp
en versjon av AlphaZero til datamaskinen deres, og brukt dem til både sjakkspill og boksing. Men hva hadde vi hatt da? Jo, da hadde vi hatt en kombinert bokse-sjakkspill-robot. Hadde den vært intelligent og tilpasningsdyktig på samme måte som et menneske? Nei, det ville fremdeles manglet noe. Det er ikke godt å si hvor mange maskinelle evner vi måtte kombinert før vi hadde følt at maskiner begynte å nærme seg menneskelig evne til generalisering.
Dette betyr likevel ikke at maskiner er oss mennesker underlegne, for det er ikke lenger vi menneskene som sitter på den intellektuelle tronen. Innen utgangen av 2018 hadde datamaskiner slått oss i de fleste spill: Sjakk, Texas hold’empoker, og mindre kjente spill som shogi, go, og Dota 2. Sistnevnte er et veldig populært og ikke minst komplisert multiplayerspill som kjempes ut online med lag bestående av flere spillere, som må planlegge sammen og lure motstanderne sine. Den 6. juni 2018 klarte flere kunstig intelligente spillere for første gang å samarbeide om å slå et lag menneskelige spillere. Den betryggende nyheten er at disse kunstig intelligente spillerne også er villige til å jobbe på lag med menneskelige spillere, altså å være partnere i stedet for motstandere. Grunnen til at maskiner vinner over oss i spillene våre, er ikke at de har et iboende ønske om å utkonkurrere mennesker: Maskiner beseirer oss fordi vi ber dem om det. Det er ikke maskinene, men skaperne deres, altså forskere som jeg selv, som jobber og står på for at maskinene skal utkonkurrere mennesker på alle områdene vi kommer over. En eventuell frykt vi måtte ha for maskiners handlinger, er derfor grunnleggende sett én av to ting: Det er enten en frykt for menneskers ønsker, eller en frykt for vår manglende forståelse av hva vi ber maskinene om. Som forsker innen kunstig intelligens er jeg ikke bekymret for at maskinen min kan ha en skjult motivasjon for å slå meg i et spill. Jeg er bekymret for noe helt annet.
Vi lever i den største storhetstiden innen kunstig intelligens
så langt. De siste årene har vi sett teknikker fra kunstig intelligens løse oppgaver stadig bedre, og fremgangen har føltes nærmest ustoppelig. I 2017 var AlphaZero det mest skjellsettende innen kunstig intelligens, men på få år har dette endret seg. Kunstig intelligens har virkelig funnet veien ut av lab-en, og man trenger ikke å forske på kunstig intelligens for å merke fremgangen: Når du låser opp telefonen med ansiktet ditt, er det fordi telefonen din har lært seg hvordan du ser ut, selv om du endrer frisyre, søvnmønster eller belysning. Når du ikke klarer å slutte å skrolle på et sosialt medium, er det fordi plattformen har lært seg hvordan den må tilpasse seg til dine preferanser for å holde på oppmerksomheten din. Når du leser en tekst, kan du ikke vite om det er et menneske eller en maskin som står bak. Og når en av Amazons varehusarbeidere i USA får sparken, er det godt mulig at det er en maskin som tar beslutningen. For kun få år siden slet de beste chatbotene med å holde en intelligent samtale gående. I dag brukes kunstig intelligente språksystemer til å forfatte propaganda, skrive artikler og utvikle dataspill, og chatboter kan underholde mennesker i timelange diskusjoner. Høsten 2022 smuglet en kunstner et bilde skapt av et kunstig intelligent program inn i en kunstkonkurranse, og maskinen endte opp med å gå av med seieren uten at noen av dommerne ante ugler i mosen. Kunstig intelligente systemer har gått fra klumsete til overmenneskelige på få år.
Samtidig er vi mange forskere som mener at kunstig intelligens ikke er i nærheten av å oppnå hverken bevissthet eller generell intelligens. At selv de beste chatbotene er mekaniske papegøyer som resirkulerer hva enn vi har fôret dem med, og at den virkelige utfordringen ikke er at vi kommer til å dele kloden med en annen intelligent rase, men heller at vi er omgitt av systemer som forsterker våre egne fordommer. Men
uansett om kunstig generell intelligens er langt, langt frem i tid, er kunstig intelligent teknologi allerede på god vei inn i samfunnet, livet og lommene våre. Om få år kan det hende at de fleste bildene du ser på internett, er skapt av maskiner, og at mange av dialogene du fører online, har kun ett menneske i seg. Og at teknologibedriftene påvirker politiske strømninger gjennom velplasserte argumenter på sosiale plattformer så vel som godt betalte lobbyister i Brüssel. Derfor tror jeg at grunnleggende kunnskap om kunstig intelligens fort vil bli avgjørende for å kunne forstå mye av hva som skjer i livet vårt, og for å kunne delta aktivt i den offentlige debatten om hvordan vi vil at denne teknologien skal påvirke samfunnet vårt.
La oss starte ferden med å lytte til Voltaire, som sa: «Definer begrepene dine, ellers vil vi aldri forstå hverandre.»15 Og det aller første vi må bli enige om, er en forkortelse: Selv om vi på norsk snakker om kunstig intelligens, og det naturligste i verden hadde vært å forkorte dette til «KI», er det mange i Norge som bruker forkortelsen «AI» – inkludert meg selv. Og det er på tross av at jeg fikk streng beskjed av en minister under Arendalsuka i 2019 om at «i Norge sier vi KI!». Forklaringen er at mange som jobber på feltet, har programmert kunstig intelligens siden før politikere og myndigheter begynte å snakke om temaet. Vi har snakket om artificial intelligence med forskere fra andre deler av verden, har lest bøker om artificial intelligence på engelsk og har alltid brukt forkortelsen AI. Og fordi jeg er en av disse slitsomme rebellene, heter det kunstig intelligens, med forkortelsen AI i denne boken.
Så, hva er kunstig intelligens? Vår egen nasjonale strategi for kunstig intelligens, som vi har hatt siden daværende digitaliseringsminister la den frem i januar 2020, bruker definisjonen: «Kunstig intelligente systemer utfører handlinger,
fysisk eller digitalt, basert på tolkning og behandling av strukturerte eller ustrukturerte data, i den hensikt å oppnå et gitt mål. Enkelte KI-systemer kan også tilpasse seg gjennom å analysere og ta hensyn til hvordan tidligere handlinger har påvirket omgivelsene.» Ikke for å være kranglete, men denne definisjonen treffer alt fra mennesker til nettsider der du kan søke opp en vare, som biltema.no – men det er (for én gangs skyld) ikke regjeringens skyld. Det er fordi det er vanskelig å definere «intelligens». Men i stedet for å ramle ned i et filosofisk kaninhull kommer jeg til å anta at du har en formening om hva du tenker på som intelligens, og så lener vi oss på det. Deretter kan vi si at kunstig intelligens er et fagfelt innen datavitenskap med formål å utvikle maskiner som evner å oppføre seg intelligent. Der har vi det, drømmen og målet: å lage intelligente maskiner. Men hvordan går vi frem for å gjøre maskinene intelligente? Grunnleggende sett finnes det to tilnærminger, som er så ulike at de utgjør en dyp filosofisk kløft på fagfeltet: de symbolske og de subsymbolske tilnærmingene.