Woche 35: Betrug mit bekannten Persönlichkeiten – Die Schattenseiten der künstlichen Intelligenz

02.09.2025 - Das BACS erhielt vergangene Woche zahlreiche Meldungen aus der Bevölkerung zu gefälschten Werbeanzeigen und Videos mit Bundespräsidentin Karin Keller-Sutter. Aus diesem Anlass widmet sich das BACS im aktuellen Wochenrückblick dem Thema, wie Inhalte mit künstlicher Intelligenz (KI) manipuliert werden. Im aktuellen Fall wird die Finanzministerin mit sogenannten «Deepfakes» als angebliche Befürworterin betrügerischer Investitionsplattformen dargestellt. Ziel der Betrüger ist es, das Vertrauen in Amtsträger auszunutzen, um die Bevölkerung zu einer unbedachten Aktion, in diesem Falle einer Investition auf einer betrügerischen Plattform, zu verleiten. Das BACS erklärt in diesem Wochenrückblick, wie Sie solche betrügerischen Videos und Werbungen erkennen und wie Sie sich wirksam schützen können.

Seit einiger Zeit kursieren auf sozialen Netzwerken wie YouTube sowie auf diversen Webseiten vermehrt gefälschte Werbeanzeigen, in denen Bundespräsidentin Karin Keller-Sutter erscheint. Diese Anzeigen und Videos sind als vermeintliche Interviews aufgemacht und sollen den Anschein erwecken, die Vorsteherin des Eidgenössischen Finanzdepartements (EFD) würde eine lukrative Investitionsplattform bewerben. Die Wahl der Person ist dabei kein Zufall. Kriminelle nutzen gezielt das Vertrauen in eine hochrangige Amtsträgerin aus, um ihren betrügerischen Finanzangeboten maximale Glaubwürdigkeit zu verleihen. Nutzerinnen und Nutzer neigen dazu, Videos mit bekannten Gesichtern mehr zu vertrauen als reinen Textanzeigen. Durch die Verknüpfung einer öffentlich bekannten Person mit dem Versprechen schneller und einfacher Gewinne wird versucht, die Urteilsfähigkeit der Opfer gezielt auszuhebeln. Dies ist ein typisches Merkmal von Anlagebetrug.

Von Gesichtern und Stimmen – Die Welt der «Deepfakes»

Die Technologie hinter solchen Bild- und Videofälschungen wird als «Deepfake» bezeichnet. Der Begriff setzt sich aus «Deep Learning» (einer Methode der künstlichen Intelligenz) und «Fake» (Fälschung) zusammen. Mittels KI werden Video-, Bild- oder Tonaufnahmen so manipuliert, dass Personen Dinge zu sagen oder zu tun scheinen, die so nie stattgefunden haben. Zu diesem Zweck wird die KI mit bestehendem Bild- und Videomaterial der Zielperson trainiert. Dank sozialer Medien und öffentlich zugänglicher Quellen im Internet ist Bild- und Videomaterial bekannter Persönlichkeiten (und auch vieler anderer Personen) heute leicht zu finden.

Zu den gängigsten Techniken gehören das «Face Swapping», bei dem ein Gesicht in einem Video durch ein anderes ersetzt wird sowie das «Facial Reenactment», bei der die Mimik und Lippenbewegungen einer Person auf eine andere Person übertragen werden. Ergänzt wird dies oft durch «Voice Cloning», bei dem die Stimme einer Person synthetisch nachgebildet wird, um beliebige Sätze zu erzeugen. Was früher Expertenwissen und teure Ausrüstung erforderte, ist heute durch frei verfügbare Software und Apps für jedermann zugänglich.

Beispiel eines «Deepfake»-Videos von Bundesrätin Karin Keller-Sutter auf YouTube.
Beispiel eines «Deepfake»-Videos von Bundesrätin Karin Keller-Sutter auf YouTube.
Beispiel einer Werbung für Investitionen auf einer betrügerischen Plattform.
Beispiel einer Werbung für Investitionen auf einer betrügerischen Plattform.

Wie man digitale Fälschungen erkennt

Die wirksamste Verteidigung gegen solche Manipulationen sind eine gesunde Portion Skepsis und kritisches Denken. Wichtig ist vor allem das Bewusstsein, dass Videos und Bilder mittlerweile leicht manipuliert werden und auf sozialen Medien und Webseiten hochgeladen werden können. Bevor man sich auf technische Details konzentriert, sollte man deshalb stets auf den Kontext und den Inhalt fokussieren: Vertrauen Sie Ihrem Bauchgefühl. Wirkt ein Angebot zu gut, um wahr zu sein oder äussert sich eine Person des öffentlichen Lebens völlig untypisch, ist höchste Vorsicht geboten. Vergleichen Sie die Information immer mit seriösen Quellen wie offiziellen Webseiten oder etablierten Nachrichtenagenturen.

Zusätzlich gibt es weitere Merkmale, die auf eine Fälschung hindeuten können. Die folgende Checkliste fasst die wichtigsten Punkte zusammen:

Merkmal Warnsignal / Worauf achten?
Gesicht und Augen Unnatürliches Blinzeln (zu viel/zu wenig), starrer oder leerer Blick, unpassender Hautton an den Rändern des Gesichts.

Mund und Stimme

Schlechte Lippensynchronisation, roboterhafter oder emotionsloser Ton, seltsame Pausen oder falsche Betonung.

Bildqualität

Unscharfe/verzerrte Ränder um Gesicht und Haare, inkonsistente Beleuchtung oder Flackern im Video.

Inhalt und Kontext

Sagt die Person etwas völlig Untypisches? Ist das Angebot unrealistisch? Ist die angebliche Aussage plausibel?

Quelle

Befindet sich das Video auf einem offiziellen Kanal? Berichten seriöse Medien darüber? Eine schnelle Online-Suche hilft oft weiter.

Zwar existieren Software-Tools zur Erkennung von «Deepfakes», doch gibt es kein hundertprozentig verlässliches «magisches Werkzeug».  Die Technologie zur Erstellung von Fälschungen entwickelt sich ebenso schnell weiter wie jene zur Erkennung. Wachsamkeit und Medienkompetenz bleiben daher ein zentraler Pfeiler beim Erkennen manipulierter Inhalte.

Empfehlungen

  • Klicken Sie keine Links in der Anzeige an und geben Sie keine persönlichen Daten ein. Leiten Sie das Video oder die Werbung nicht weiter.
  • Melden Sie den Inhalt bei der Plattform, auf der dieser veröffentlicht worden ist: (z. B. YouTube, Facebook oder auch beim Webseitenbetreiber). Dies ist der schnellste Weg, um die Inhalte entfernen zu lassen.
  • Melden Sie den Inhalt beim Bundesamt für Cybersicherheit (BACS): Verwenden Sie dazu das offizielle Meldeformular.
  • Sollten Sie bereits einen finanziellen Schaden erlitten haben, erstatten Sie umgehend eine Strafanzeige bei Ihrer zuständigen kantonalen Polizeibehörde. Auf der Seite von Suisse ePolice können Sie Polizeiposten in Ihrer Nähe und deren Telefonnummern suchen.

Aktuelle Zahlen und Statistiken

Die Anzahl Meldungen der letzten Woche nach Kategorien sind publiziert unter:

Aktuelle Zahlen

Letzte Änderung 02.09.2025

Zum Seitenanfang

https://www.ncsc.admin.ch/content/ncsc/de/home/aktuell/im-fokus/2025/wochenrueckblick_35.html