Zum Hauptinhalt springen

Artikel

Was ist ein Deepfake-Betrug?

F-Secure

7 min Lesezeit

Stellen Sie sich vor, Sie erhalten eine Video­botschaft von Ihrem Chef, in der er Sie bittet, Geld zu über­weisen. Oder Sie sehen ein Video, in dem ein Prominenter oder Influencer eine neue Krypto­währung bewirbt. Ganz gleich, ob Sie den Inhalt als Fälschung erkennen oder nicht: Eine vertraute Person dabei zu sehen, wie sie sich völlig untypisch verhält, kann zutiefst verunsichern und die Grenze zwischen echtem und gefälschtem Inhalt verschwimmen lassen.

So beunruhigend das klingen mag: Dank der rasanten Entwicklung künstlicher Intelligenz (KI) werden solche Betrugs­maschen immer häufiger. Diese Art künstlich erzeugter Medien­inhalte wird als Deep­fake bezeichnet.

Deepfakes sind täuschend echt aussehende, gefälschte Bilder, Videos oder Ton­aufnahmen, die mithilfe von KI erstellt werden. Auch wenn Deep­fakes auf Social Media oft harmlos wirken und leicht als Scherz zu erkennen sind, werden sie zunehmend miss­braucht, um Menschen zu betrügen, Geld zu stehlen und gezielt Desinformationen zu verbreiten.

Lesen Sie weiter, um zu erfahren, wie Deep­fakes funktionieren und wie Sie sich vor ihnen schützen können.

Was sind Deepfakes?

Ein Deepfake ist in der Regel ein mit künstlicher Intelligenz manipuliertes Bild, Video oder eine Ton­aufnahme.

Das Ziel dieser Technologie besteht darin, den Eindruck zu erwecken, dass jemand etwas gesagt oder getan hat, was in Wirklichkeit nie passiert ist. In manchen Fällen sind solche Inhalte harmlos und leicht als Fälschung erkennbar, zum Beispiel lustige Filter, die das Aussehen oder die Stimme verändern.

Problematisch wird es jedoch, sobald ein Deep­fake-Video, ‑Bild oder ‑Audio nicht mehr von der Realität zu unterscheiden ist. Betrüger und andere Kriminelle nutzen dies bereits aus, indem sie Deep­fake-Technologie gezielt einsetzen, um Menschen zu täuschen und zu manipulieren.

Wie funktionieren Deepfakes?

Deepfakes basieren auf Deep Learning, einer Form des maschinellen Lernens. Dabei analysieren Computer große Daten­mengen und erkennen Muster. Der Begriff „Deepfake“ setzt sich daher aus „Deep Learning“ und „Fake“ zusammen.

Eine entscheidende Technologie, die Deep­fakes ermöglicht hat, wird als GAN (Generative Adversarial Network, zu Deutsch: gegnerisches generatives Netz­werk) bezeichnet. Der zugrunde­liegende Prozess ist komplex, aber hier ist eine vereinfachte Erklärung:

  • Eine Komponente der KI (der „Generator“) erzeugt gefälschte Inhalte.

  • Eine zweite Komponente (der „Diskriminator“) beurteilt, wie realistisch die Inhalte wirken.

  • Beide Systeme konkurrieren miteinander, bis die Fälschung kaum noch vom Original zu unter­scheiden ist.

Um zu funktionieren und sich weiter­zuentwickeln, benötigen diese KI-Systeme Trainings­daten wie beispiels­weise Video­ausschnitte, Bilder oder Sprach­aufnahmen. Je mehr Daten der KI zur Verfügung stehen, desto realistischer kann sie ein Bild, ein Video oder eine Ton­aufnahme erstellen. Durch die Verbreitung sozialer Medien und die Tatsache, dass viele Menschen Videos von sich selbst online teilen, mangelt es den KI-Systemen nicht an Lern­material.

Hinzu kommt, dass die Deepfake-Technologie heute so leicht zugänglich ist wie nie zuvor: Mit­hilfe von Apps und Online-Tools kann mittler­weile jeder eine täuschend echte Aufnahme, ein Bild oder ein Video von einer anderen Person erstellen. Was früher fundierte technische Kenntnisse erforderte, ist heute für alle verfügbar — auch für Betrüger.

Die Gefahren der Deepfake-Technologie

Deepfakes stellen eine ernsthafte Bedrohung dar, wenn sie mit böser Absicht eingesetzt werden. Doch nicht nur Betrüger machen sich diese Technologie zunutze. Zu den Gefahren der Deepfake-Technologie zählen unter anderem:

  • Identitätsdiebstahl und Vortäuschung falscher Identitäten: Deepfake-Videos, Bilder oder Sprach­nachrichten können bei den Opfern den Eindruck erwecken, sie kommunizieren mit einer ihnen vertrauten Person, etwa einem Familien­mitglied, einem Freund oder einem Prominenten.

  • Finanzbetrug: Deepfakes kommen bei Telefon- und Video­betrügereien zum Einsatz, um Menschen zur Über­weisung von Geld zu verleiten. Betrüger können sogar kurze Audio­aufnahmen aus sozialen Medien oder von der Mail­box nutzen, um die Stimme einer Person täuschend echt zu imitieren.

  • Desinformation und Fake News: Mit gefälschten Videos werden gezielt Falsch­informationen oder politische Propaganda verbreitet. Deep­fakes kommen zunehmend in Wahl­kämpfen zum Einsatz.

  • Pornografische Deepfakes und Erpressung: Mithilfe von „Face-Swap“-Tools lassen sich kompromittierende Inhalte erstellen, bei denen das Gesicht einer Person täuschend echt in porno­grafisches Material eingefügt wird. Auch bei Rache­pornos und Sextortion-Betrugs­maschen kommen Deep­fakes zum Einsatz.

Lassen Sie sich nicht von Deepfakes täuschen

Deepfake-Betrug ist jedoch nicht die einzige Form von Internet­betrug. Wachsamkeit und gesunder Menschen­verstand können Sie daher vor großem Schaden im Netz bewahren. Achten Sie auf typische Warn­zeichen von Deep­fakes, etwa manipulierte Videos in den sozialen Medien oder täuschend echte Ton­aufnahmen.

Ein Beispiel aus der Praxis: Betrug mit Deepfake-Videos

Deepfakes sind keine Zukunftsvision, sondern richten bereits heute echten Schaden an. Ein aufsehen­erregender Fall ereignete sich im Jahr 2023 in Hongkong:

In diesem spektakulären Fall nutzten Betrüger während eines Zoom-Meetings Deep­fake-Technologie, um sich als CFO und weitere Mit­arbeiter eines Unter­nehmens auszugeben. Die Deep­fakes wirkten so realistisch, dass ein Mit­arbeiter der Finanz­abteilung über­zeugt war, mit echten Kollegen zu sprechen — und daraufhin rund 25 Millionen US-Dollar auf betrügerische Konten überwies.

Das Opfer dieses Betrugs hatte zunächst Zweifel, nachdem es verdächtige Nach­richten von den Betrügern erhalten hatte. Als es jedoch an einem Zoom-Meeting teil­nahm und vermeintlich vertraute Gesichter aus dem Kollegen­kreis sah, ließ es sich über­zeugen und tätigte die Über­weisung.

Und nicht nur lukrative Ziele wie Unter­nehmen geraten ins Visier — jede Person mit Internet­zugang und einem Smart Device kann einem Deep­fake-Betrug zum Opfer fallen. Ein besonders extremer Fall ereignete sich in Frank­reich: Eine Frau verlor 830.000 €, weil sie glaubte, eine Beziehung mit dem Schau­spieler Brad Pitt zu führen.

Die Betrüger überzeugten das Opfer mithilfe von KI-Fake-Bildern, die Brad Pitt angeblich in einem Kranken­haus­bett zeigten, Geld zu über­weisen. Als die Frau miss­trauisch wurde, schickten die Täter ihr ein gefälschtes Video mit einem KI-generierten Nach­richten­sprecher, der über Pitts angebliche Beziehung zu einer Frau mit dem gleichen Namen des Opfers berichtete.

Durch Betrugsmaschen wie diese sind die Sorgen rund um Deep­fakes in den letzten Jahren deutlich gewachsen. Allerdings sind sogenannte Face-Swaps und andere Deep­fake-Techniken kein neues Phänomen. Bereits 2017 berichtete BBC News über ein Deep­fake-Video von Barack Obama, das von Forschern erstellt wurde.

Heutzutage kann nahezu jede Person mit minimalen technischen Kenntnissen Deep­fake-Tools nutzen, um täuschend echte Ton­aufnahmen, Bilder und Videos zu erstellen.

Wie Sie Deepfakes erkennen können

Mit dem technischen Fortschritt wird es immer schwieriger, Deep­fakes zu entlarven. Hinzu kommt die Flut an Inhalten in unseren Social-Media-Feeds — da kann selbst eine schlecht gemachte KI-Fälschung glaub­würdig wirken, wenn man nicht genau hinschaut. Zum Glück gibt es einige Warn­signale, auf die Sie achten können, um sich zu schützen:

  • Unnatürliche Augenbewegungen oder fehlendes Blinzeln: Frühe Deep­fakes schaffen es oft nicht, natürliches Blinzeln realistisch darzustellen.

  • Unstimmige Lippen­bewegungen: In Deepfake-Videos passen die Mund­bewegungen häufig nicht exakt zum gesprochenen Ton.

  • Verschwommene oder flackernde Ränder: Die Ränder von Deep­fake-Inhalten können durch Face-Swapping unnatürlich oder instabil erscheinen.

  • Unstimmige Beleuchtung oder Schatten: Deepfakes haben oft Schwierigkeiten, natürliche Licht­verhältnisse oder den tatsächlichen Haut­ton einer Person realistisch darzustellen.

  • Seltsamer Ton: Audio-Deepfakes haben häufig Probleme, die echte Stimme einer Person realistisch nachzubilden. Achten Sie auf robot­erhafte, verzerrte oder unnatürlich klingende Töne, um Fälschungen zu erkennen.

Im Zweifelsfall sollten Sie Tools für die Reverse-Bildersuche nutzen, um echte Inhalte von Deep­fakes zu unter­scheiden.

Wenn Sie sehen, dass eine bekannte Persönlichkeit etwas Aufsehen­erregendes sagt oder tut, über­prüfen Sie die Informationen immer zuerst über vertrauens­würdige Quellen, bevor Sie vorschnelle Schlüsse ziehen. Halten Sie außerdem stets inne, bevor Sie auf ein verdächtiges Video oder eine Nach­richt reagieren — insbesondere, wenn Sie zu einer Handlung aufgefordert werden, etwa Geld zu über­weisen oder persönliche Daten preis­zugeben.

Schützen Sie sich vor Betrugs­versuchen mit F‑Secure Total

Deepfakes sind nicht die einzige Gefahr im Internet. F-Secure Total schützt all Ihre Online-Aktivitäten und hilft Ihnen, Betrüger abzuwehren. Dank des fort­schrittlichen Viren­schutzes, VPN, Identitäts­schutzes und Pass­wort­managers von Total surfen Sie sicher im Internet. Der integrierte Betrugs­schutz sorgt dafür, dass Ihre persönlichen Daten und Ihr Geld geschützt bleiben.

  • Kaufen Sie online sicher ein dank Shopping-Schutz

  • Blockieren Sie gefälschte Banking-Websites mit dem Banking-Schutz

  • Vermeiden Sie schädliche Links mit dem Browsing-Schutz