6 minute read
FAKE NEWS 2.0
from SAMSON 2021 #1
by SAMS
Hvordan håndterer vi Deepfake på nettet?
Mange har allerede stiftet bekendtskab med Deepfake-teknologi i face-swap videoer af celebrities. Men bag de sjove videoer lurer en ny trussel, vi som samfund ikke er rustet til at imødekomme. Deepfake er et våben, der kan ramme individer, organisationer og stater. Det stiller nye krav; både til de digitale medier, men også til den enkelte medieforbruger.
Advertisement
Forestil dig en video af Mette Frederiksen, der indrømmer korruption i regeringen. Sådan en video kunne få seriøse følgevirkninger ude i samfundet og vække vrede blandt befolkningen. Men hvad nu, hvis hun aldrig havde sagt disse ting? Hvad nu, hvis videoen var falsk? Fake News er i forvejen et voksende problem på de sociale medier, og nu har en ny udfordrende spiller meldt sig på banen: Deepfake. Med Deepfake-teknologi kan stort set alle skabe falsk, men realistisk, video og lyd af begivenheder, som aldrig har fundet sted. Ifølge forskning på området kan Deepfake bruges til et væld af grove formål: afpresning, tillidstab til nyhedsmedier og udspekuleret valgsvindel, for blot at nævne nogle få. I denne artikel giver SAMSON dig et indblik i de mulige konsekvenser af Deepfake for online nyhedsmedier og SoMe.
Deepfake gør det lettere at skabe og dele misinformation online. Sådan lyder dommen i en forskningsrapport af R. Chesney & D. Citron fra 2019. Deepfakes har en så høj kvalitet, at det er svært at skelne falsk indhold fra virkeligt. Video og lyd virker mere overbevisende på os end skrift og fotos. Deepfake-programmer er desuden blevet så lettilgængelige, at selv en person med få computerevner kan lave forholdsvis realistiske Deepfakes.
Udover at kunne bruges til afpresning og identitetstyveri er Deepfake også et slagkraftigt politisk våben. Eksempelvis kan Deepfake misbruges til at gøre stor skade på kendte personers ry og omdømme. Tag f.eks. det opdigtede Mette Frederiksen-eksempel ovenfor. En sådan video ville ikke blot vanære politikeren – den kunne provokere til uroligheder og vold i et politisk højspændt samfund. For nylig har f.eks. protestbevægelsen Men In Black tyet til handling over upopulære politiske beslutninger og udtalelser.
Sociale medier: De årvågne gatekeepers
Deepfake er et mangesidet fænomen, men vi kan starte med at se på dets indvirkning på SoMe. Facebook og Twitter har i forvejen strenge Fake Newsretningslinjer, som de tager meget seriøst. Men kan platformene håndtere Deepfake-teknologiens vildledende potentiale? Ifølge Chesney og Citron spreder Fake News sig hurtigere på sociale medier end på andre typer medier. At misinformation på den måde bliver superspredt sker samtidig med, at folk i stigende grad henter deres nyheder fra SoMe. Potentialet for misinformation forstærkes også ved, at Facebooks algoritmer kun ’fodrer’ brugerne med synspunkter, der bekræfter dem i deres holdninger. Spørger man forskerne, øger Deepfake behovet for strengere kontrol af det indhold, der deles på SoMe. Tech-firmaer og ekspertgrupper rundt omkring i verden arbejder på højtryk for at udvikle teknologiske Deepfake-modvåben. Amerikanske tech-firmaer har bl.a. udviklet software til at spotte små fejl, der afslører, at en video er en Deepfake. Man kunne fristes til at tænke, at dette var løsningen på problemet, men sagen er den, at Deepfake-algoritmen retter fejlene og undgår dem næste gang, den laver en Deepfake. Sagt på en anden måde ligner det en ’katten efter musen’-forestilling, hvor Deepfakemodvåbnet hele tiden halter lidt efter Deepfakealgoritmen.
Der findes flere eksempler på ny teknologi, der skal bekæmpe misinformation med Deepfake. I techverdenen arbejder man f.eks. på et såkaldt ’digital provenance’-system, der kan vandmærke Deepfakes i det øjeblik, de uploades på nettet. På den måde kan man altid se, om en video er forfalsket eller ej. Men ud over de teknologiske tiltag understreger forskerne en anden væsentlig del af problemet: Brugernes adfærd på SoMe.
HVAD ER DEEPFAKE?
BEGREBET ”DEEPFAKE” ER EN SAMMENSÆTNING AF ”FAKE” OG ”DEEP LEARNING”, SOM ER ET OMRÅDE INDENFOR AI (KUNSTIG INTELLIGENS). DEEPFAKE-TEKNOLOGI FUNGERER PÅ DEN MÅDE, AT TO ALGORITMER (EN ’SKABER’ OG EN ’DISKRIMINATOR’) SÆTTES OP IMOD HINANDEN I ET SYSTEM KALDET EN ’GAN’. FØRST LAVER SKABER-ALGORITMEN EN DEEPFAKE UD FRA NOGET BILLED- OG LYDDATA. JO MERE DATA, JO MERE REALISTISK BLIVER SKABERALGORITMENS DEEPFAKE.
DEREFTER KOMMER DISKRIMINATOR-ALGORITMEN I SPIL. DEN ER NEMLIG I STAND TIL AT UDPEGE DE FEJL, SOM AFSLØRER SKABER-ALGORITMENS DEEPFAKE, F.EKS. HVIS PERSONEN I VIDEOEN BLINKER PÅ EN UNATURLIG MÅDE.
SKABER-ALGORITMEN ER SÅDAN KONSTRUERET, AT DEN KAN ’LÆRE’ FRA DISKRIMINATOR-ALGORITMEN VED AT RETTE DEN FEJL, SOM BLEV OPDAGET. PÅ DEN MÅDE ER SKABER-ALGORITMEN HELE TIDEN ET SKRIDT FORAN DISKRIMINATOR-ALGORITMEN.
KILDE: ARTIKLEN TECHNICAL COUNTERMEASURES TO DEEPFAKES SKREVET AF ASHISH JAIMAN FRA TOWARDSDATASCIENCE.COM
SoMe-Brugerne: Større behov for kritisk tænkning
Hvis man tror, at Deepfake-problemet kan løses med et teknologisk snuptag, så tager man grueligt fejl. Det er brugerne, der spreder Deepfakes, og det er langt fra alle, der tænker sig om en ekstra gang, før de trykker ’del.’ Derfor mener Chesney og Citron, at hver enkelt bruger har et ansvar for at bekæmpe spredningen af Deepfake. Forskerne påpeger, at folk er mere tilbøjelige til at dele negativt og nyt materiale på SoMe. Jo saftigere nyheden er, des hurtigere spredes den online – sand eller ej. Men ikke blot deles Fake News hurtigere på SoMe. Ifølge teknologieksperten S. Karnouskos har mange SoMe-brugere en tendens til at godtage svagt underbyggede påstande.
Chesney og Citron understreger, at der er behov for en sund skepticisme, når man som bruger færdes på SoMe. Brugerne har et ansvar for de ting, de deler på deres væg. Det er dog ikke helt så let at tjekke, om indhold på nettet har rod i sandheden. Deepfakes er nemlig i dag så realistiske, at de fleste ikke kan gennemskue dem. Folk kan ikke længere stole blindt på, hvad de ser og hører online. Hvordan skal den enkelte bruger navigere i den enorme mængde af misinformation på SoMe?
Nyhedsmedierne: Fast forankrede i fakta
Her skal der være fokus på de digitale nyhedsmedier, som stilles over for en kolossal udfordring af Deepfake-teknologien. Kommunikationsforskerne C. Vaccari og A. Chadwick varslede sidste år en markant vending i digital nyhedsformidling. I en videnskabelig artikel understreger de, at borgernes tillid til pålidelige nyhedskilder er alfa og omega, når vi skal orientere os. Selv med Deepfake inde i billedet skal vi kunne stole på, at digitale nyhedsmedier giver os et faktuelt billede af verden. Det bliver ikke en let opgave. Indtil for nylig har langt de fleste, takket være smartphones og SoMe, haft uovertruffen adgang til troværdig video og lyd af vigtige verdensbegivenheder – nu går vi ind i nye tider. Antallet af Deepfakes på nettet vokser, og mangel på troværdige nyhedsmedier kan få store konsekvenser for samfundet. I artiklen hævder Vaccari og Chadwick, at Deepfakes sænker borgernes tillid til digitale nyhedsmedier. De advarer om, at mistilliden på sigt kan gå ud over selv de pålidelige nyhedsmedier. Et andet udslag af øget mistillid er en skeptisk drejning i SoMe-brugernes adfærd – og ikke i konstruktiv forstand. Forskerne frygter nemlig, at folk bliver mindre ansvarsbevidste og samarbejdsvillige over for andre på SoMe.
De pålidelige nyhedsmediers udfordring bliver at bevare tillid. Det er ikke nok blot at oplyse borgerne om Deepfake-teknologi. Vaccari og Chadwick mener, at journalister har alvorligt brug for nye evner og redskaber til at imødekomme Deepfake-truslen. De skal konstant kunne tjekke ægtheden af video og lyd og identificere de fjendtligsindede Deepfakes. Deepfake-teknologien er meget avanceret; derfor bliver de førnævnte teknologiske modvåben altafgørende, hvis journalisterne skal være i stand til at skelne fup fra fakta.
Deepfake-bølgen er på vej. Den kan og vil blive brugt til et væld af problematiske formål på nettet. Skaderne kan begrænses, men som vi har set, kræver det en aktiv indsats fra flere parter. De gode nyheder er, ifølge forskerne, at der på sigt vil blive udviklet effektive forsvar mod fjendtligsindede Deepfakes. Indtil da må vi acceptere den svære sandhed, at vi ikke længere kan stole blindt på vores øjne og ører, når vi færdes online.