Stellen Sie sich vor, Sie erhalten eine Videobotschaft von Ihrem Chef, in der er Sie bittet, Geld zu überweisen. Oder Sie sehen ein Video, in dem ein Prominenter oder Influencer eine neue Kryptowährung bewirbt. Ganz gleich, ob Sie den Inhalt als Fälschung erkennen oder nicht: Eine vertraute Person dabei zu sehen, wie sie sich völlig untypisch verhält, kann zutiefst verunsichern und die Grenze zwischen echtem und gefälschtem Inhalt verschwimmen lassen.
So beunruhigend das klingen mag: Dank der rasanten Entwicklung künstlicher Intelligenz (KI) werden solche Betrugsmaschen immer häufiger. Diese Art künstlich erzeugter Medieninhalte wird als Deepfake bezeichnet.
Deepfakes sind täuschend echt aussehende, gefälschte Bilder, Videos oder Tonaufnahmen, die mithilfe von KI erstellt werden. Auch wenn Deepfakes auf Social Media oft harmlos wirken und leicht als Scherz zu erkennen sind, werden sie zunehmend missbraucht, um Menschen zu betrügen, Geld zu stehlen und gezielt Desinformationen zu verbreiten.
Lesen Sie weiter, um zu erfahren, wie Deepfakes funktionieren und wie Sie sich vor ihnen schützen können.
Was sind Deepfakes?
Ein Deepfake ist in der Regel ein mit künstlicher Intelligenz manipuliertes Bild, Video oder eine Tonaufnahme.
Das Ziel dieser Technologie besteht darin, den Eindruck zu erwecken, dass jemand etwas gesagt oder getan hat, was in Wirklichkeit nie passiert ist. In manchen Fällen sind solche Inhalte harmlos und leicht als Fälschung erkennbar, zum Beispiel lustige Filter, die das Aussehen oder die Stimme verändern.
Problematisch wird es jedoch, sobald ein Deepfake-Video, ‑Bild oder ‑Audio nicht mehr von der Realität zu unterscheiden ist. Betrüger und andere Kriminelle nutzen dies bereits aus, indem sie Deepfake-Technologie gezielt einsetzen, um Menschen zu täuschen und zu manipulieren.
Wie funktionieren Deepfakes?
Deepfakes basieren auf Deep Learning, einer Form des maschinellen Lernens. Dabei analysieren Computer große Datenmengen und erkennen Muster. Der Begriff „Deepfake“ setzt sich daher aus „Deep Learning“ und „Fake“ zusammen.
Eine entscheidende Technologie, die Deepfakes ermöglicht hat, wird als GAN (Generative Adversarial Network, zu Deutsch: gegnerisches generatives Netzwerk) bezeichnet. Der zugrundeliegende Prozess ist komplex, aber hier ist eine vereinfachte Erklärung:
Eine Komponente der KI (der „Generator“) erzeugt gefälschte Inhalte.
Eine zweite Komponente (der „Diskriminator“) beurteilt, wie realistisch die Inhalte wirken.
Beide Systeme konkurrieren miteinander, bis die Fälschung kaum noch vom Original zu unterscheiden ist.
Um zu funktionieren und sich weiterzuentwickeln, benötigen diese KI-Systeme Trainingsdaten wie beispielsweise Videoausschnitte, Bilder oder Sprachaufnahmen. Je mehr Daten der KI zur Verfügung stehen, desto realistischer kann sie ein Bild, ein Video oder eine Tonaufnahme erstellen. Durch die Verbreitung sozialer Medien und die Tatsache, dass viele Menschen Videos von sich selbst online teilen, mangelt es den KI-Systemen nicht an Lernmaterial.
Hinzu kommt, dass die Deepfake-Technologie heute so leicht zugänglich ist wie nie zuvor: Mithilfe von Apps und Online-Tools kann mittlerweile jeder eine täuschend echte Aufnahme, ein Bild oder ein Video von einer anderen Person erstellen. Was früher fundierte technische Kenntnisse erforderte, ist heute für alle verfügbar — auch für Betrüger.
Die Gefahren der Deepfake-Technologie
Deepfakes stellen eine ernsthafte Bedrohung dar, wenn sie mit böser Absicht eingesetzt werden. Doch nicht nur Betrüger machen sich diese Technologie zunutze. Zu den Gefahren der Deepfake-Technologie zählen unter anderem:
Identitätsdiebstahl und Vortäuschung falscher Identitäten: Deepfake-Videos, Bilder oder Sprachnachrichten können bei den Opfern den Eindruck erwecken, sie kommunizieren mit einer ihnen vertrauten Person, etwa einem Familienmitglied, einem Freund oder einem Prominenten.
Finanzbetrug: Deepfakes kommen bei Telefon- und Videobetrügereien zum Einsatz, um Menschen zur Überweisung von Geld zu verleiten. Betrüger können sogar kurze Audioaufnahmen aus sozialen Medien oder von der Mailbox nutzen, um die Stimme einer Person täuschend echt zu imitieren.
Desinformation und Fake News: Mit gefälschten Videos werden gezielt Falschinformationen oder politische Propaganda verbreitet. Deepfakes kommen zunehmend in Wahlkämpfen zum Einsatz.
Pornografische Deepfakes und Erpressung: Mithilfe von „Face-Swap“-Tools lassen sich kompromittierende Inhalte erstellen, bei denen das Gesicht einer Person täuschend echt in pornografisches Material eingefügt wird. Auch bei Rachepornos und Sextortion-Betrugsmaschen kommen Deepfakes zum Einsatz.
Lassen Sie sich nicht von Deepfakes täuschen
Deepfake-Betrug ist jedoch nicht die einzige Form von Internetbetrug. Wachsamkeit und gesunder Menschenverstand können Sie daher vor großem Schaden im Netz bewahren. Achten Sie auf typische Warnzeichen von Deepfakes, etwa manipulierte Videos in den sozialen Medien oder täuschend echte Tonaufnahmen.
Ein Beispiel aus der Praxis: Betrug mit Deepfake-Videos
Deepfakes sind keine Zukunftsvision, sondern richten bereits heute echten Schaden an. Ein aufsehenerregender Fall ereignete sich im Jahr 2023 in Hongkong:
In diesem spektakulären Fall nutzten Betrüger während eines Zoom-Meetings Deepfake-Technologie, um sich als CFO und weitere Mitarbeiter eines Unternehmens auszugeben. Die Deepfakes wirkten so realistisch, dass ein Mitarbeiter der Finanzabteilung überzeugt war, mit echten Kollegen zu sprechen — und daraufhin rund 25 Millionen US-Dollar auf betrügerische Konten überwies.
Das Opfer dieses Betrugs hatte zunächst Zweifel, nachdem es verdächtige Nachrichten von den Betrügern erhalten hatte. Als es jedoch an einem Zoom-Meeting teilnahm und vermeintlich vertraute Gesichter aus dem Kollegenkreis sah, ließ es sich überzeugen und tätigte die Überweisung.
Und nicht nur lukrative Ziele wie Unternehmen geraten ins Visier — jede Person mit Internetzugang und einem Smart Device kann einem Deepfake-Betrug zum Opfer fallen. Ein besonders extremer Fall ereignete sich in Frankreich: Eine Frau verlor 830.000 €, weil sie glaubte, eine Beziehung mit dem Schauspieler Brad Pitt zu führen.
Die Betrüger überzeugten das Opfer mithilfe von KI-Fake-Bildern, die Brad Pitt angeblich in einem Krankenhausbett zeigten, Geld zu überweisen. Als die Frau misstrauisch wurde, schickten die Täter ihr ein gefälschtes Video mit einem KI-generierten Nachrichtensprecher, der über Pitts angebliche Beziehung zu einer Frau mit dem gleichen Namen des Opfers berichtete.
Durch Betrugsmaschen wie diese sind die Sorgen rund um Deepfakes in den letzten Jahren deutlich gewachsen. Allerdings sind sogenannte Face-Swaps und andere Deepfake-Techniken kein neues Phänomen. Bereits 2017 berichtete BBC News über ein Deepfake-Video von Barack Obama, das von Forschern erstellt wurde.
Heutzutage kann nahezu jede Person mit minimalen technischen Kenntnissen Deepfake-Tools nutzen, um täuschend echte Tonaufnahmen, Bilder und Videos zu erstellen.
Wie Sie Deepfakes erkennen können
Mit dem technischen Fortschritt wird es immer schwieriger, Deepfakes zu entlarven. Hinzu kommt die Flut an Inhalten in unseren Social-Media-Feeds — da kann selbst eine schlecht gemachte KI-Fälschung glaubwürdig wirken, wenn man nicht genau hinschaut. Zum Glück gibt es einige Warnsignale, auf die Sie achten können, um sich zu schützen:
Unnatürliche Augenbewegungen oder fehlendes Blinzeln: Frühe Deepfakes schaffen es oft nicht, natürliches Blinzeln realistisch darzustellen.
Unstimmige Lippenbewegungen: In Deepfake-Videos passen die Mundbewegungen häufig nicht exakt zum gesprochenen Ton.
Verschwommene oder flackernde Ränder: Die Ränder von Deepfake-Inhalten können durch Face-Swapping unnatürlich oder instabil erscheinen.
Unstimmige Beleuchtung oder Schatten: Deepfakes haben oft Schwierigkeiten, natürliche Lichtverhältnisse oder den tatsächlichen Hautton einer Person realistisch darzustellen.
Seltsamer Ton: Audio-Deepfakes haben häufig Probleme, die echte Stimme einer Person realistisch nachzubilden. Achten Sie auf roboterhafte, verzerrte oder unnatürlich klingende Töne, um Fälschungen zu erkennen.
Im Zweifelsfall sollten Sie Tools für die Reverse-Bildersuche nutzen, um echte Inhalte von Deepfakes zu unterscheiden.
Wenn Sie sehen, dass eine bekannte Persönlichkeit etwas Aufsehenerregendes sagt oder tut, überprüfen Sie die Informationen immer zuerst über vertrauenswürdige Quellen, bevor Sie vorschnelle Schlüsse ziehen. Halten Sie außerdem stets inne, bevor Sie auf ein verdächtiges Video oder eine Nachricht reagieren — insbesondere, wenn Sie zu einer Handlung aufgefordert werden, etwa Geld zu überweisen oder persönliche Daten preiszugeben.
)
)

)