1 minute read

Linuxexperten: ”Det finns skäl att vara rädd för AI”

Next Article
Svensk Elektronik

Svensk Elektronik

AI-program som på egen hand snabbt skräddarsyr en cyberattack mot önskad server på Internet – sådana kan utvecklas med samma teknik som driver Chat GPT, enligt Iisko Lappalainen på Montavista Software.

De omtalade stora AI-språkmodellerna (LLM, large language model) ser ut att innebära en stor utmaning för alla som jobbar med cybersäkerhet.

– Jag tycker att när det gäller cybersäkerhet så bör vi vara rädda för AI. Det kommer att bli ett stort problem. Du kan använda den underliggande tekniken, maskininlärning, för att hacka system.

Det sade Iisko Lappalainen på Montavista i en presentation han höll under konferensdelen av Embedded World.

– Jag ser ett hot på nära håll, att AI:ar som GPT4 kan läras att tänka som angripare. De kan snabbt utnyttja sårbarheter och extrapolera fram nya vari- anter av existerande attacker.

– Jag är säker på att någon kommer att göra det förr eller senare, säger Iisko Lappalainen.

Vissa potentiella möjligheter att använda Chat GPT och andra språkmodeller för cyberattacker har redan uppmärksammats, som sociala attacker som att lura sig till access genom att härma en annan person i text, röst och bild.

– Men AI kommer att bli generellt säkerhetsproblem, tror jag. Man kan använda samma typ av teknik som Chat GPT är baserad på för att bygga andra sorters AI som exempelvis är direkt konstruerade för att hitta sårbarheter i servrar.

GPT-maskinerna kan skriva programkod. Redan det är imponerande. Men de är dessutom väldigt produktiva vilket gör att det går snabbt att automatiskt skapa och genomföra anpassade cyberattacker.

– Du kan exempelvis visa dem en typ av sårbarhet, och då kan de på ett smart sätt skapa nya varianter av den, så kalllad fuzzing, och mycket snabbt attackera nya system.

Han visar upp en av sina dialoger med Chat GPT. De konverserar om vilka valmöjligheter som står till buds för att hacka en sajt. Chat GPT producerar utan att protestera kod som kan användas för attacker.

Och det är bara början. Attackerna som Chat GPT visar för Iisko Lappalainen är kända sedan tidigare.

– Du kan hitta samma exempel genom att googla.

– Men samma teknik som Chat GPT är baserad på, kommer även att kunna användas för att bygga en AI som är specialiserad på till exempel just de verktyg som finns för Linux.

– Den skulle kunna utvärdera system efter deras unika sårbarheter. Sedan skulle den kunna skapa mutationer av existerande sårbarheter som passar för just den sajten, testa dem, skapa nya mutationer – och sedan repetera processen.

Maskinen skulle på egen hand

This article is from: