4 minute read

Wie KI-Sprachmodelle à la ChatGPT Cyberkriminellen in die Karten spielt

Das Bundesamt für Cybersicherheit (BACS; früher NCSC) warnt in einem Fokus-Bericht vor der neuen Gefahr: Immer öfter nutzen Cyberkriminelle KI-Lösungen, um für Betrugsversuche benutzte Texte, Bilder, Videos und Stimmnachrichten zu fälschen.

Wer seine E-Mails mit etwas Konzentration liest und der geschriebenen Sprache seiner jeweiligen Sprachregion grundlegend mächtig ist, hat mit Phishing-E-Mails eigentlich leichtes Spiel. Denn neben der Absenderadresse und dem enthaltenen, oftmals leicht als suspekt erkennbaren Link fallen Phishing-E-Mails meist durch ihre holprige Formulierung, die fehlerbehaftete Schreibweise des Textes und ihre fragwürdige formale Ausfertigung auf. Dies liegt daran, dass die in aller Regel ausländischen Übeltäter weder Deutsch noch Französisch oder Italienisch sprechen, geschweige denn Texte in diesen Sprachen fehlerfrei verfassen können. Entsprechend nutzen sie Online-Übersetzungshilfen (meist kostenlose Versionen) oder arbeiten mit Auszügen aus Vorlagen. Die dabei zwangsläufig entstehenden Fehler machen es bis heute eher einfach, Phishing-E-Mails zu erkennen – um sie dann sofort zu löschen.

Mit KI-Modellen können Stimmproben aus mitgeschnittenen Telefonaten in neu komponierte Sprachnachrichten verwandelt werden, auf die Opfer besonders leicht hereinfallen.
© shutterstock.com

Phishing-Nachrichten von ChatGPT und Co.

Doch damit könnte bald Schluss sein, warnen Spezialisten des Bundesamtes für Cybersicherheit (BACS; früher Nationales Zentrum für Cybersicherheit NCSC). Sie haben festgestellt: Mittlerweile greifen immer mehr Cyberkriminelle beim Verfassen ihrer Betrugs-E-Mails auf die Dienste von KI-Lösungen wie dem beliebten Sprachmodell ChatGPT zurück. Diese formulieren Texte nahezu fehlerfrei und in einer Sprache, bei der kaum auffällt, dass eine Maschine und kein Mensch die Buchstaben und Wörter aneinandergereiht hat.

Zwar haben die Entwickler von ChatGPT dieses Risiko vorhergesehen und daher Mechanismen eingebaut, welche die KI daran hindern sollen, Vorlagen für betrügerische E-Mail-Nachrichten zu erstellen. Doch im Darknet sind bereits spezialisierte KI-Sprachmodelle zugänglich, mit deren Hilfe sich quasi im Handumdrehen sprachlich und formal tadellos formulierte Texte für Phishing-E-Mails und -Seiten erstellen lassen – in fast jeder erdenklichen Sprache.

Daher gilt in Zukunft noch mehr als heute schon: Augen auf bei der Bearbeitung von E-Mails! Denn die Aufforderung, auf einen Link zu klicken, sowie eine meist dubiose Absenderadresse verraten Phishing-E-Mails auch künftig.

Gefälschte Bilder, Deepfake-Videos und kopierte Stimmen

Neben gefälschten Texten können mit KI auch Bilder und Videos generiert werden, die mit der Realität nichts zu tun haben. Auch solche Dateien werden von Cyberkriminellen genutzt, um arglose Opfer zu täuschen – und abzuzocken. Laut dem BASC wurden bereits erste Fälle gemeldet, bei denen Fake-Bilder oder -Videos genutzt wurden. Ein Beispiel sind Online-Werbungen für Geldanlagen, bei denen mit dem Gesicht und der Stimme einer bekannten Persönlichkeit, beispielsweise eines Mitglieds des Bundesrates, dafür geworben wird, auf einer Online-Plattform Geld zu investieren – das dann in die Taschen der Betrüger fliesst. Ein anderes Beispiel sind Deepfake-Videos, bei denen scheinbar eine prominente Person erzählt, dass Bitcoin-Zahlungen an eine bestimmte Wallet im Sinne einer Wohltätigkeitsaktion doppelt zurückgezahlt würden. Und im Bereich «Sextortion» werden die Opfer mit KI-generierten Nackt- oder Pornobildern erpresst, in die ihr eigenes Konterfei eingearbeitet wurde.

Relativ neu, aber schon stark im Kommen sind gefälschte Stimm- und Sprachnachrichten. Dazu lassen die Betrüger zuvor durch Tonaufzeichnungen, aus Videos kopierte oder beim Mitschnitt von Telefonaten gewonnene Stimmproben einer Person von einem KI-Modell zu gesprochenen Nachrichten oder Aussagen komponieren, die dann für falsche Werbung oder für Schock-Anrufe verwendet werden, bei denen die vermeintlich in einer misslichen Lage befindliche Person «persönlich» zum Opfer «spricht».

Diese Beispiele machen deutlich: Den Spezialisten des BACS wird die Arbeit auch in Zukunft nicht ausgehen – und wir alle sind gefordert, Augen und Ohren offen zu halten und mit der Veröffentlichung von Bild- und Videomaterial auf für jedermann zugänglichen Online-Portalen künftig vielleicht etwas zurückhaltender zu sein.

Wollen Sie immer top informiert sein über Wissenswertes und Aktuelles aus und für die Blaulichtorganisationen? Dann besuchen Sie unsere Website www.blaulicht-iv.ch, folgen Sie uns auf Social Media und abonnieren Sie unsere Printausgabe BLAULICHT

This article is from: