Woche 49: Einsatz von künstlicher Intelligenz für Betrugsversuche

12.12.2023 - Das NCSC beobachtet eine Zunahme der Verwendung von sogenannter künstlicher Intelligenz (KI) für Phishing- und Betrugsversuche. Nachfolgend werden drei Beispiele beleuchtet, bei denen KI bereits heute eine Rolle spielt.

Phishing-Vorlagen dank KI im Darknet

Phishing-Mails sind häufig nicht nur am Absender und dem enthaltenen suspekten Link erkennbar, sondern auch an der sprachlichen und formalen Ausfertigung der Nachricht. Da die Übeltäter in der Regel nicht deutsch sprechen, sind sie auf Übersetzer und kopierte Vorlagen angewiesen. Bei der konkreten Umsetzung unterlaufen den Betrügern oftmals Fehler, manchmal werden sogar Sprachen vermischt.

Deshalb greifen mittlerweile auch Betrüger vermehrt auf KI zurück: Mit möglichst klar definierten Sprach-Anforderungen können entsprechende Vorlagen erstellt werden, welche nur schwer als Fälschung zu enttarnen sind.

Um dem entgegenzuwirken, hat beispielsweise das bekannteste KI-Sprachmodell, ChatGPT, Mechanismen eingebaut, um das Erzeugen von betrügerischen Vorlagen verhindern.

Im Darknet kann jedoch bereits Zugang zu spezialisierten Sprachmodellen erworben werden. Damit lassen sich z. B. tadellos aussehende und formulierte Phishing-E-Mails und -Seiten erstellen.

Nichtsdestotrotz: Auch die tadellos formulierten Nachrichten werden weiterhin einen betrügerischen Link enthalten, welcher nicht auf einen Dienst des vermeintlichen Absenders zeigt. Ein kurzer Blick auf den Link in einer Nachricht mit der Aufforderung, darauf zu klicken, bleibt also ein wichtiges Element der Sicherheitsmassnahmen.

Bild- und Videomaterial fälschen mit KI

Es existieren mittlerweile auch Werkzeuge, die es erlauben, grafisches Material herzustellen, das nur sehr schwer als Fälschung zu entlarven ist. Füttert man entsprechende KI-Modelle mit Bildern von real existierenden Personen (z. B. mit Fotos aus sozialen Medien), lassen sich damit neue Darstellungen erzeugen, die so nie aufgenommen wurden, aber den Eindruck eines tatsächlich erstellten Schnappschusses erwecken.

Auch Videos lassen sich mit nur wenig Basismaterial von einer Person erzeugen. Häufig werden Personen missbraucht, von denen einiges an Videomaterial zu finden ist, d. h. bekannte Persönlichkeiten, wie beispielswiese Bundesrätinnen und Bundesräte.

Dem NCSC wurden bereits Fälle gemeldet, welche sich diese Vorgehensweise zu Nutze machen:

  • Bei Werbung für Online-Anlagebetrug:
    Mit dem Gesicht und der Stimme einer bekannten Persönlichkeit wird dem Betrachter suggeriert, dass mit einer kleinen Einlage auf einer Online-Plattform sehr viel Geld verdient werden könne. Durch den Bekanntheitsgrad der Person wird das Vertrauen des Betrachters geweckt. Das Geld wird dabei nicht wirklich investiert, sondern fliesst direkt in die Taschen der Betrüger.

  • Bei betrügerischen Give-Away Aktionen:
    Eine bekannte Persönlichkeit erzählt in einem konstruierten Video, dass Bitcoin-Zahlungen an eine bestimmte Wallet im Sinne einer Wohltätigkeitsaktion doppelt zurückgezahlt würden. Zahlungen an diese Wallet gehen natürlich direkt an die Betrüger - alles, was man an diese digitale Geldbörse schickt, ist verloren. Solche Videos werden auf den bekannten Plattformen veröffentlicht und über Social-Media-Kanäle bekannt gemacht.
    Lesen Sie hierzu mehr in unserem Wochenrückblick der Woche 17: Werbung mit Deepfake-Video für einen «Give-Away»-Betrug.

  • Bei Sextortion:
    Mit von KI erzeugten Nacktbildern wird das Opfer erpresst, indem man droht, diese zu veröffentlichen. Es ist für einen Betrachter nur schwer auszumachen, dass einzig das Gesicht von dieser Person stammt und der Rest mittels KI hinzugefügt wurde. Unter Umständen - wenn entsprechendes Bildmaterial vorhanden ist - kann sogar ein vertrauter Raum oder die Umgebung dazu passend gewählt werden.

Stimmen fälschen dank KI

Mit aufgezeichneten Stimmproben einer Zielperson («voice samples»), die z. B. auch über Telefonanrufe gewonnen werden können, lassen sich KI-Modelle dazu bringen, geschriebenen Text oder gesprochene Sprache so zu wiedergeben, dass die Stimme jener der Zielperson zum Verwechseln ähnelt.

Solche Stimmen werden z. B. für Schockanrufe verwendet. Dabei ruft ein angeblicher Polizist an und erklärt, dass der Sohn oder die Tochter in einen Unfall verwickelt sei und man eine Kaution bezahlen müsse. Als Beweis und Druckmittel wird eine fabrizierte Aufzeichnung abgespielt, in welcher die Person mit einer für das Opfer erkennbaren Stimme dramatisch um Hilfe bittet.

Empfehlungen:

  • Klicken Sie nicht auf Links in E-Mails oder SMS, in welchen Sie aufgefordert werden, darauf zu klicken;
  • Kontrollieren Sie Links, auf welche Sie klicken, hinsichtlich der Zieldomäne. Passt der Link zum angeblichen Absender?;
  • Geben Sie nie Passwörter, Codes oder Kreditkartendaten auf einer Seite ein, die Sie über einen Link in einer E-Mail oder Textnachricht geöffnet haben;
  • Hinterfragen Sie Angebote oder Gewinnmöglichkeiten, welche «zu gut, um wahr zu sein» sind;
  • Bei seltsamen oder verstörenden Anrufen, welche ein Problem eines Familienangehörigen vorgeben, hängen Sie auf, kontaktieren Sie den Angehörigen direkt über einen anderen Kanal und im Zweifelsfall auch die Polizei;
  • Werden Sie mit kompromittierendem Bildmaterial erpresst, auch wenn Sie diese Fotos so nie erstellt haben, kontaktieren Sie die Polizei. Brechen Sie den Kontakt mit den Betrügern ab und leisten Sie keine Zahlungen;
  • Seien Sie generell vorsichtig bezüglich Fotos und Videos von Ihnen oder anderen Personen, die Sie im Internet und für alle sichtbar veröffentlichen.

Aktuelle Zahlen und Statistiken

Die Anzahl Meldungen der letzten Woche nach Kategorien sind publiziert unter:

Aktuelle Zahlen

Letzte Änderung 12.12.2023

Zum Seitenanfang

https://www.ncsc.admin.ch/content/ncsc/de/home/aktuell/im-fokus/2023/wochenrueckblick_49.html