Artikel

Wie Hochstapler in einem Jahr 2,7 Mrd. USD einnahmen

device image
Corey McAuley
Corey McAuley
|
18. Juli 2024
|
7 min Lesezeit

„Die KI-Revolution wird uns immense Vorteile bringen und unvorstellbare neue Heraus­forderungen. Wir sind abhängiger von Technologie als je zuvor und künstliche Intelligenz beeinflusst die Computer­sicherheit und den Daten­schutz auf grenzenlose Weise.“

So beschreibt es Mikko Hyppönen, Principal Research Advisor bei F‑Secure, in unserem Ebook „Staying ahead of cyber threats in the age of AI“. Die neuesten Daten der US Federal Trade Commission (FTC) zum Thema Geld­betrug unter­mauern diese Aussage: Betrug durch Hoch­stapler ist die bedeutendste Betrugs­kategorie im Jahr 2023.

Berichten zufolge haben US-Verbraucher in nur 12 Monaten 2,7 Milliarden Dollar durch Hoch­stapler verloren — eine Zahl, die dank des rasanten techno­logischen Fort­schritts und der weiten Verbreitung von künstlicher Intelligenz von Jahr zu Jahr exponentiell gestiegen ist. Doch welche Betrugs­maschen wurden angewandt?

Die 3 gängigsten Betrugs­maschen, die KI verwenden

Betrugsmaschen sind viel­fältig, aber alle funktionieren auf ähnliche Weise: Betrüger geben sich als eine andere Person oder Organisation aus, dem oder der Sie vertrauen. So werden Sie dazu bewegt, eine bestimmte Handlung durch­zuführen, wie beispiels­weise Ihr Geld zu über­weisen. Diese Betrugs­maschen sind oft die persönlichsten und intimsten aller Online-Betrügereien und die Hoch­stapler erscheinen besonders herzlos. Lernen Sie die häufigsten Betrugs­maschen kennen.

1. Phishing und smishing

Haben Sie jemals eine E-Mail mit einem bös­artigen Link erhalten, die Sie mit interessantem Inhalt zum Klicken verleiten wollte? Dies nennt sich Phishing. Wenn dies hingegen per Text­nach­richt oder SMS geschieht, dann ist von Smishing die Rede.

Wie macht künstliche Intelligenz das Ganze noch effektiver?

  • WormGPT — eine bös­artige Alternative zu ChatGPT — ist äußerst effektiv, wenn es um die Erstellung von Phishing- oder Smishing-Angriffen geht, bei denen persönliche Daten gestohlen oder Opfer zur Installation von Malware verleitet werden sollen.

  • Auch ohne dieses maß­geschneiderte Tool können generative KI-Apps wie ChatGPT verwendet werden, um die Effektivität von Betrugs­versuchen zu verbessern. Dank der natürlichen Sprach­verarbeitung großer Sprach­modelle kann ein Chatbot in Sekunden­schnelle eine professionell klingende E-Mail oder SMS schreiben.

  • Die Bots können den Text von betrügerischen E-Mails Korrektur lesen und automatisch alle Grammatik­fehler beseitigen. Zudem können Sie den Text schnell und präzise in verschiedene Sprachen über­setzen — wodurch sich die potenzielle Ziel­gruppe einer Betrugs­masche massiv vergrößert.

Wie Sie sich schützen können

  • Probieren Sie ChatGPT aus, um aus erster Hand zu erfahren, wie über­zeugend eine Unter­haltung mit einem KI-Programm heutzutage sein kann. Allein diese Erkenntnis kann Ihnen helfen, potenzielle Phishing-Angriffe zu vermeiden.

  • Verwenden Sie sichere Pass­wörter und eine Multi-Faktor-Authentifizierung, um Ihre Konten zu schützen.

  • Schützen Sie Ihre Geräte proaktiv vor Malware mit einem Endpunkt­schutz.

2. Vishing

Vishing bedeutet, dass Sie einen Anruf von einem Hoch­stapler erhalten, der versucht, an Ihre persönlichen Daten zu gelangen oder Sie auffordert, Geld zu senden. Hierbei gibt sich der Betrüger als jemand aus, den Sie kennen oder dem Sie vertrauen.

Wie macht künstliche Intelligenz das Ganze noch effektiver?

Stellen Sie sich vor, dass Sie mitten in der Nacht einen Anruf von einem Familien­mitglied oder engen Freund erhalten, der Sie bittet, ihm zu helfen. Anschließend stellen Sie fest, dass die Stimme per künstlicher Intelligenz gefälscht wurde.

„Da die Möglichkeiten der generativen KI immer zugänglicher werden und die Programme immer weniger Stimm­proben benötigen, um die Stimme einer Person zu imitieren, könnten diese maß­geschneiderten Angriffe mit Fake-Stimmen viel häufiger auftreten“, erklärt Laura Kankaala, Threat Intelligence Lead bei F‑Secure.

Wie Sie sich schützen können

  • Seien Sie misstrauisch bei unerwarteten oder ungewöhnlichen Geld­forderungen, insbesondere wenn diese aus heiterem Himmel nach Geschenk­karten, Krypto­währungen oder einer Über­weisung verlangen. Atmen Sie tief durch und versuchen Sie zunächst, Ihre Situation zu googeln, bevor Sie eine Entscheidung treffen und Geld senden.

  • Im Zeitalter der künstlichen Intelligenz sollten wir — zunächst — allem gegen­über skeptisch sein, sogar Kontakt­aufnahmen von Menschen, die uns nahestehen. Denken Sie daran, dass heute fast alles gefälscht werden kann.

  • Wenn möglich, rufen Sie die Person direkt an. Möglicher­weise verwirren Sie die andere Person oder unter­brechen ihren Tief­schlaf, aber zumindest haben Sie so nicht zugelassen, dass Kriminelle Ihre Gutmütigkeit ausnutzen.

3. Deepfakes

Mit KI ist es nicht nur einfach, Texte und Stimmen von Menschen zu imitieren. Mit genügend Rechen­leistung und Zeit können Kriminelle gefälschte Bilder und Videos erstellen, bei denen ein Gesicht auf den Körper einer anderen Person über­tragen wird und die Person so in fast jeder Situation dargestellt werden kann. Diese gefälschten Bilder werden als Deep­fakes bezeichnet.

Wie werden Deepfakes für Internet­kriminalität genutzt?

  • Im Juni 2023 meldete das FBI einen Anstieg an Kriminellen, die diese Technologie nutzen, um explizite Inhalte zu erstellen und sie für Sextortion zu nutzen. Dies ist eine Form der Erpressung, bei der das Opfer mit der Veröffentlichung von sexuell expliziten Bildern oder Videos bedroht wird. Beliebt ist hierbei die Drohung, dass die Deepfake-Videos an Familie und Freunde gesendet werden.

  • Es gibt keine Grenzen, wie diese Deep­fakes eingesetzt werden können: sei es für emotionalen Miss­brauch, politische Manipulation oder regel­rechten Betrug. Es wurden sogar Deepfake-Videos von Elon Musk auf X veröffentlicht, in denen er über die Investition in eine Krypto­währung spricht an der er nicht beteiligt ist.

  • Mit sich verbessernden Technologien wird nicht nur die Zahl der Betrugs­versuche zunehmen, sondern vermutlich auch deren Qualität — so wird es immer schwieriger, sie zu erkennen.

Wie Sie sich schützen können

Um zu vermeiden, dass Sie Opfer von Deep­fakes werden, empfiehlt das FBI:

  • Überwachen Sie die Aktivitäten Ihrer Kinder auf Social Media.

  • Suchen Sie sich regel­mäßig selbst im Internet.

  • Stellen Sie Ihre Social Media Konten auf privat und stärken Sie Ihre Konto­sicherheit.

Sollten Sie doch einmal mit Deepfake-Bildern erpresst werden, schlägt Laura Kankaala vor:

  • Die beste Lösung für Deep­fakes ist es, den Forderungen der Betrüger einfach nicht nach­zugeben und die Vorfälle statt­dessen der Polizei zu melden.

  • Diese Hoch­stapler haben es auf mehrere Personen gleich­zeitig abgesehen. Daher haben sie wahr­scheinlich nicht die Zeit, ihre Drohungen wahr zu machen und Ihre Familie oder Freunde ausfindig zu machen, um ihnen die gefälschten Bilder zu senden.

  • Und selbst wenn die Hoch­stapler so weit gehen sollten, können Sie Ihre Angehörigen warnen, dass sie gefälschte Bilder sehen könnten. Das ist zwar nicht ideal, aber weitaus besser, als diese Art der Erpressung zu unterstützen.

Für wen geben sich Hoch­stapler aus?

Betrüger geben sich als jede Person aus, die von Menschen als vertrauens­würdig oder von hoher Autorität oder Wert angesehen wird, unter anderem:

  • Staatliche Organisationen

  • Vermieter oder Versorgungs­unternehmen

  • Potenzielle Liebhaber

  • Bekannte Unternehmen wie Amazon

  • Familienmitglieder und enge Freunde

  • Kollegen oder der CEO Ihres Unter­nehmens

  • Unternehmen, die Jobs anbieten

  • Zustelldienste

  • Kindermädchen und Betreuerinnen

  • Berühmte Persönlichkeiten und Staats­ober­häupter

Beispiele für Betrügereien aus dem wahren Leben

Betrüger verwenden in der Regel eine von zwei Taktiken: Sie informieren Sie über ein Problem und bieten Ihnen dann eine Lösung an. Oder sie sprechen mit einer persönlichen Bitte um Geld Ihre Gutherzigkeit an.

Falsche Warnungen zu „verdächtigen Aktivitäten“

Abigail Bishop, Head of External Relations, Scam Prevention bei Amazon, erklärt im The Global State of Scams Report, dass Amazon im Jahr 2023 viele Berichte über Betrüger erhalten hat, die gefälschte Warnungen zu „verdächtigen Aktivitäten“ verschickt haben.

Verbraucher, die glaubten, dass ihr Konto kompromittiert wurde und auf den bös­artigen Link klickten, um ihre Daten zu verifizieren, gaben ihre Zahlungs- oder Anmelde­daten an Betrüger weiter. Amazon bietet Schulungen zum Thema Cyber­sicherheit an, um Verbrauchern zu helfen, solche Betrugs­versuche zu erkennen.

Das Klonen von Stimmen von Familien­mitgliedern

Die in Schweden lebende Ann-Lis wurde auf eine andere Art und Weise getäuscht: Sie erhielt eine Text­nach­richt, in der stand, dass ihre Tochter dessen Telefon­nummer geändert hatte, gefolgt von einer Bitte um Geld für ein neues Telefon und einen neuen Computer.

Ann-Lis war misstrauisch, bis sie einen Anruf erhielt und die Stimme ihrer Tochter wieder­erkannte. Diese bat sie ihr Tausende schwedische Kronen zu schicken. Das war ausreichend, um alle Zweifel über Bord zu werfen. Glücklicher­weise schaltete sich ihre Bank ein und blockierte die Trans­aktion, da sie den Verdacht bekam, dass etwas nicht stimmte.

devices secured illustration

Schützen Sie alles, was Sie online tun

Machen Sie das sichere Surfen im Internet einfach mit einer App, die alles kann.

total app on different devices

Total für sicheren Online-Einkauf

Der Browsing-Schutz von F‑Secure (in F‑Secure Total enthalten) ermöglicht es Ihnen, die Sicherheit von Shopping-Sites zu bewerten und verhindert, dass Sie unbeabsichtigt auf schädliche URLs zugreifen.

  • Identifizieren Sie schnell sichere Web­sites in Ihren Such­ergebnissen

  • Blockieren Sie automatisch betrügerische Web­sites

  • Erhalten Sie Feed­back zu potenziell schädlichen Web­sites mit Sicherheits­bewertungen

Erfahren Sie mehr über Total