Deep Fakes: Fluch oder Fun? Künstliche Intelligenz (KI) öffnet völlig neue Türen. Ein durch sie entstandenes Phänomen sind Deep Fakes, digital bearbeitete Videos von Personen, denen man mit Hilfe von KI Gesichter von Prominenten aufpflanzt. SUMO sprach mit Martin Steinebach, Abteilungsleiter für Media Security und IT Forensics am Fraunhofer-Institut in Darmstadt, und Klaus Gebeshuber, Professor für IT-Security an der FH Joanneum in Kapfenberg, über Probleme und Chancen von Deep Fakes.
© Copyright: adobe stock / meyerandmeyer
Man stelle sich folgende Situationen vor: Ein Politiker wird der Wiederbetätigung beschuldigt, da er in einem Video, das im Internet aufgetaucht ist, antisemitische Aussagen tätigt. Oder man stößt auf einer Porno-Site plötzlich auf ein Video von einem selbst, ohne jemals ein solches gedreht zu haben. Beide Videos sind fake, doch der dadurch angerichtete Schaden ist schwer behebbar und kann weitreichende Folgen mit sich tragen. Genau solche Problematiken wirft der ein paar Jahre alte, stets ausgefeiltere Internet-Trend „Deep Fakes“ auf. Deep Fakes bezeichnen gefälschte Videos, in dem die Gesichter von beispielsweise PolitikerInnen und SchauspielerInnen auf die Körper anderer Personen gepflanzt wurden und man sie danach Dinge sagen und tun lässt, die nie passiert sind. Der Wissenschaftsjournalist Norbert Nosslau schrieb in seiner Arbeit „Deep Fake: Gefahren, Herausforderungen und Lösungswege“, dass der Name ein Kunstwort sei und sich sich aus den Begriffen „Deep Learning“, einer speziellen KI-Technik, und „Fake“, also der Fälschung, zusammensetze. Diese Technologie basiert auf neuralen Netzwerken, die durch das Analysieren möglichst großer Datenproben lernen, Gesichtsausdrücke und -form einer Person zu imitieren. Mika Westerlund, Professor an der Carleton University in Kanada, legte in seinem Text „The Emergence of Deepfake Technology: A Review“ dar, wie Deep-Fake-Technologie funktioniert: Ein Deep-LearningAlgorithmus werde mit Aufnahmen zweier Personen gefüttert, um ihn darauf zu trainieren, das Gesicht einer Person in einem Video mit dem Gesicht einer anderen Person zu vertauschen. Die zuvor genannten neuronalen Netzwerke seien lernfähig und in der Lage, aus vielen Fotos einer Person zu erlernen oder vorherzusagen, wie sie aus
48
Deep Fakes: Fluch oder Fun?
einem anderen Winkel oder mit einem anderen Gesichtsausdruck aussehe. Verwendungsarten von Deep Fakes Laut Westerlund hätten Deep Fakes erstmals 2017 an Bekanntheit gewonnen, als ein Nutzer der Online-Plattform „Reddit“ die ersten Videos teilte, die Prominente in sexuellen Szenen darstellten, und die dafür verwendete Software als Open-Source-Programm im Internet für andere zur Verfügung stellte. Im Allgemeinen ist die pornografische Verwendung von Deep Fakes vorherrschend. 2018 startete die KIFirma „Deeptrace“ eine Messung der Deep-Fake-Aktivitäten im Internet und untersuchte dabei 15.000 Deep-FakeVideos. Im darauffolgenden Bericht „The State of Deep Fakes – Landscape, Threats and Impact“ wurde schließlich dargelegt, dass 96% der Deep Fakes pornografischer Natur waren. 99% der vertauschten Gesichter betrafen dabei Frauen. Unter den vielen Opfern von Deep Fakes zählt auch die bekannte Schauspielerin Scarlett Johansson. Laut einem Artikel des „Standard“ erzielte ein pornografisches Video mit ihrem Gesicht 1,5 Millionen Aufrufe, bevor es von „Pornhub“ gelöscht wurde. In einem Interview mit der „Washington Post“ erzählte sie, dass sie den Kampf gegen Deep Fakes als „sinnlos“ betrachte und dass sie sich nicht mehr aus dem Netz vertreiben ließen, wenn sie einmal veröffentlicht wurden. Neben der großen Problematik des Missbrauchs in Sachen Pornografie, wirft es auch Probleme für PolitikerInnen und Rufschädigung auf. „Pornografie war die erste Welle von Deep Fakes, die ins Netz gekommen sind, danach hatten wir eine Welle, bei der sehr viele Entertainment-Videos auftauchten, in denen Comedians PolitikerInnen lustige Sachen machen ließen. Jetzt ist