7 minute read

Deep Fakes: Fluch oder Fun? von Alexander Schuster

Deep Fakes: Fluch oder Fun?

Künstliche Intelligenz (KI) öffnet völlig neue Türen. Ein durch sie entstandenes Phänomen sind Deep Fakes, digital bearbeitete Videos von Personen, denen man mit Hilfe von KI Gesichter von Prominenten aufpflanzt. SUMO sprach mit Martin Steinebach, Abteilungsleiter für Media Security und IT Forensics am Fraunhofer-Institut in Darmstadt, und Klaus Gebeshuber, Professor für IT-Security an der FH Joanneum in Kapfenberg, über Probleme und Chancen von Deep Fakes.

Man stelle sich folgende Situationen vor: Ein Politiker wird der Wiederbetätigung beschuldigt, da er in einem Video, das im Internet aufgetaucht ist, antisemitische Aussagen tätigt. Oder man stößt auf einer Porno-Site plötzlich auf ein Video von einem selbst, ohne jemals ein solches gedreht zu haben. Beide Videos sind fake, doch der dadurch angerichtete Schaden ist schwer behebbar und kann weitreichende Folgen mit sich tragen. Genau solche Problematiken wirft der ein paar Jahre alte, stets ausgefeiltere Internet-Trend „Deep Fakes“ auf. Deep Fakes bezeichnen gefälschte Videos, in dem die Gesichter von beispielsweise PolitikerInnen und SchauspielerInnen auf die Körper anderer Personen gepflanzt wurden und man sie danach Dinge sagen und tun lässt, die nie passiert sind. Der Wissenschaftsjournalist Norbert Nosslau schrieb in seiner Arbeit „Deep Fake: Gefahren, Herausforderungen und Lösungswege“, dass der Name ein Kunstwort sei und sich sich aus den Begriffen „Deep Learning“, einer speziellen KI-Technik, und „Fake“, also der Fälschung, zusammensetze. Diese Technologie basiert auf neuralen Netzwerken, die durch das Analysieren möglichst großer Datenproben lernen, Gesichtsausdrücke und -form einer Person zu imitieren. Mika Westerlund, Professor an der Carleton University in Kanada, legte in seinem Text „The Emergence of Deepfake Technology: A Review“ dar, wie Deep-Fake-Technologie funktioniert: Ein Deep-LearningAlgorithmus werde mit Aufnahmen zweier Personen gefüttert, um ihn darauf zu trainieren, das Gesicht einer Person in einem Video mit dem Gesicht einer anderen Person zu vertauschen. Die zuvor genannten neuronalen Netzwerke seien lernfähig und in der Lage, aus vielen Fotos einer Person zu erlernen oder vorherzusagen, wie sie aus einem anderen Winkel oder mit einem anderen Gesichtsausdruck aussehe.

Verwendungsarten von Deep Fakes

Laut Westerlund hätten Deep Fakes erstmals 2017 an Bekanntheit gewonnen, als ein Nutzer der Online-Plattform „Reddit“ die ersten Videos teilte, die Prominente in sexuellen Szenen darstellten, und die dafür verwendete Software als Open-Source-Programm im Internet für andere zur Verfügung stellte. Im Allgemeinen ist die pornografische Verwendung von Deep Fakes vorherrschend. 2018 startete die KIFirma „Deeptrace“ eine Messung der Deep-Fake-Aktivitäten im Internet und untersuchte dabei 15.000 Deep-FakeVideos. Im darauffolgenden Bericht „The State of Deep Fakes – Landscape, Threats and Impact“ wurde schließlich dargelegt, dass 96% der Deep Fakes pornografischer Natur waren. 99% der vertauschten Gesichter betrafen dabei Frauen. Unter den vielen Opfern von Deep Fakes zählt auch die bekannte Schauspielerin Scarlett Johansson. Laut einem Artikel des „Standard“ erzielte ein pornografisches Video mit ihrem Gesicht 1,5 Millionen Aufrufe, bevor es von „Pornhub“ gelöscht wurde. In einem Interview mit der „Washington Post“ erzählte sie, dass sie den Kampf gegen Deep Fakes als „sinnlos“ betrachte und dass sie sich nicht mehr aus dem Netz vertreiben ließen, wenn sie einmal veröffentlicht wurden. Neben der großen Problematik des Missbrauchs in Sachen Pornografie, wirft es auch Probleme für PolitikerInnen und Rufschädigung auf. „Pornografie war die erste Welle von Deep Fakes, die ins Netz gekommen sind, danach hatten wir eine Welle, bei der sehr viele Entertainment-Videos auftauchten, in denen Comedians PolitikerInnen lustige Sachen machen ließen. Jetzt ist

das Ganze wie zu erwarten auch in der Welt der Desinformation angekommen und wird da missbräuchlich eingesetzt. Da ist es natürlich kritisch und als eine echte kurzfristige Gefährdung für den Ruf von PolitikerInnen zu sehen“, betont Media-Security-Experte Martin Steinebach im SUMO-Interview fest. Es stelle sich meistens raus, dass es sich um eine Fälschung handle, jedoch könne der kurzfristige Impact langfristige Folgen mit sich bringen: etwa kurz vor einer Wahl, falls Deep Fakes verbreitet würden, um eine/n Kandidatin/en zu denunzieren, und viele Leute ihre Meinung darauf hin ändern und die/den Kandidatin/en doch nicht wählen. Auch wenn nach der Wahl das Video aufgedeckt würde, wäre es dann schon zu spät. Damit wäre die Aufdeckung des Videos kurzfristig bereinigt worden, aber die Nachwirkungen der Manipulation hielten dann Jahre an. Die Frage, ob die Verantwortung für den Missbrauch dieser Technologe bei NutzerInnen oder dem/r Entwickler/in, der bzw. die Ersteren schließlich das Werkzeug in die Hand lege, ist für ITSecurity-Experten Klaus Gebeshuber klar zu beantworten: „Der/Die Nutzer/ in trägt definitiv die Verantwortung für den Missbrauch der Technologie. Ein Schraubenzieher kann auch dafür verwendet werden, jemanden zu töten, in diesem Fall trägt aber auch nicht das Werkzeug die Schuld an der Tat, sondern der oder die Täter/in“. Neben diesen problematischen Anwendungsmöglichkeiten findet die Deep-FakeTechnologie jedoch auch harmlosere Verwendung im Bereich Parodien, Satire und sonstiger Unterhaltung. „YouTube“-Kanäle wie „Ctrl Shift Face“ nutzen Deep Fakes, um unterhaltsame Videos zu produzieren, in denen die Gesichter von SchauspielerInnen mit anderen ausgetauscht werden: Robert Downey Junior und Tom Holland als moderne Neubesetzungen für „Doc Brown“ und „Marty McFly“ aus dem Kult-Zeitreise-Film „Zurück in die Zukunft“, und vieles mehr. Demokratisch wie auch problematisch kommt hinzu, dass so ziemlich jede/r heutzutage in der Lage ist, zumindest einfachste Deep Fakes zu generieren. Eine immer länge werdende Liste an Programmen und zahlreiche Tutorial-Videos auf Videoplattformen wie „YouTube“ ermöglichen es auch Laien, sich an der Erstellung von solchen zu versuchen.

Widerstand und Zukunft

Die Tür, die ein Weiterspinnen solcher Technologie in der Zukunft öffnet kann beängstigend wirken. Sowohl Gebeshuber als auch Steinebach sind sich einig, dass Deep Fakes bei dem derzeitigen technologischen Fortschritt in wahrscheinlich weniger als zehn Jahren nicht mehr von der Realität unterscheidbar wären. Es gibt aber Personen, die Deep Fakes den Kampf angesagt haben: „Assembler“ – eine Software von Jigsaw, einer Firma des Alphabet-Konzerns – soll laut „Der Standard“ (28.02.2020) beispielsweise Medienhäusern und Fakten-Checkern dabei helfen, manipulierte Videos in geringerer Zeit und mit höherer Trefferquote zu identifizieren. Ian Sample vom „The Guardian“ berichtete in seinem Artikel „What are deepfakes and how can you spot them“, dass die Qualität der Deep Fakes zunehme und sie mit freiem Auge zu erkennen, immer schwieriger werde. Weiters finanzieren Regierungen, Universitäten und Tech-Unternehmen bereits Forschungsbemühen, um zukünftig Deep Fakes aufdecken zu können. Programme wie das zuvor erwähnte „Assembler“ könnten zukünftig dabei helfen, Fakes von Realität zu unterscheiden. Im zuvor genannten Artikel des „Standard“ wurde ebenfalls berichtet, dass Pornosites wie „Pornhub“ sich dazu entschieden hätten, DeepFake-Content zu verbannen und dem Missbrauch keine Plattform zu bieten. Auch Soziale Medien wie beispielsweise „Facebook“ und „Reddit“ änderten ihre Nutzerrichtlinien dahingehend, dass sie Deep Fake-Inhalte zukünftig sofort entfernen werden. Einen Schritt weiter ging die Regierung des US-Bundesstaats Kalifornien, die zwei neue Gesetze im Zusammenhang mit Deep Fakes beschloss, wie „Deutschlandfunk Nova“ in einem Online-Artikel berichtete. Während mit dem ersten Gesetz von Deep-Fake-Videos Betroffene mehr Möglichkeiten erhalten, sich gegen die Verwendung ihrer Gesichter zu wehren, verbietet das zweite Ge setz die Verbreitung von politischen Deep Fakes. Gebeshuber sieht solche Verbote als wenig effektiv: „Technologie kann nicht verboten werden. Durch das Internet gibt es immer andere und neue Wege, sie zu verbreiten.“ Auch Steinebach zeigt sich Verboten gegenüber skeptisch: „Die Deep Fakes sind im Internet. Man kann höchstens seitens der EU solche Projekte nicht mehr unterstützen oder darüber nachdenken, eine Kennzeichnungspflicht für Deep-Fake-Technologie einzuführen. So wäre wenigstens in den Meta-Daten erkenntlich, dass das Video durch einen Algorithmus manipuliert wurde.“ Für andere würde der zukünftige Fortschritt der Deep-Fake-Technologie neue Möglichkeiten mit sich

© Copyright hier

bringen. Mika Westerlund, Professor an der Carleton University in Kanada, schrieb im oben erwähnten Artikel, dass beispielsweise die Filmindustrie stark von Deep Fake und Face-Mapping-Technologie profitieren könne. Es würde FilmemacherInnen beispielsweise erlauben, klassische Szenen aus Filmen nachzuschaffen oder verstorbene SchauspielerInnen wieder auf die Leinwand zu holen. „Möglicherweise ist man in der Zukunft im Entertainmentbereich gar nicht mehr auf die Präsenz von SchauspielerInnen angewiesen“, äußerte sich Steinebach dazu. Auch in der Post Production könne sich die Technologie in Form von Spezialeffekten und komplexer Gesichtsbearbeitung auszahlen. Weiters habe auch die Mode- und Werbeindustrie Interesse an dieser Technologie. Mit Ihrer Hilfe könnten sich beispielsweise die KonsumentInnen selbst in Models verwandeln und ihre Gesichter auf andere Körper pflanzen. Dies ermögliche eine bis dato unerreichte Vorschau darauf, wie ein Outfit an einem/einer selbst aussehen würde, bevor man es überhaupt kauft. Damit könnte man eine große Zahl an Kleidungstücken in kürzester Zeit anprobieren.

Schlussendlich sind Deep Fakes eine Technologie, die ebenso viele Chancen eröffnet, wie sie auch soziale Probleme bereitet. Egal, ob sie Besorgnis erregt oder man deren Zukunft aufgeregt entgegenfiebert, eines steht fest: Deep Fakes sind gekommen, um zu bleiben. Sie wird sich weiterverbreiten und perfektioniert werden. Es gilt, diese Entwicklung in kontrollierten Bahnen stattfinden zu lassen und sicherzustellen, dass menschliche Grundrechte wie Privatsphäre und Gerechtigkeit für jene Personen, die von ihnen oft unfreiwillig betroffen sind, nicht auf der Strecke des Fortschrittes liegen bleiben.

von Alexander Schuster

Klaus Gebeshuber / Copyright: FH Joanneum

48˚10'44.6"N15˚34'02.3"E

Martin Steinbach / Copyright: Fraunhofer SIT

This article is from: