So funktionieren KI-Telefonbetrug und Fake Anrufe

Künstliche Intelligenz wird als einer der größten Fortschritte der letzten Jahre gefeiert. Leider wird sie auch für böse Absichten genutzt: Fake Anrufe per KI sind die neue Form der Cyberkriminalität.

So funktionieren KI-Telefonbetrug und Fake Anrufe

Kriminelle nutzen KI, um Sie arglistig zu täuschen

Fake Anrufe sind nichts Neues: Kriminelle haben das Telefon bereits als Betrugsmasche verwendet, lange bevor das Internet dem Großteil der Menschheit zugänglich war. Neue Technologien wie die künstliche Intelligenz bieten Betrügern neue Werkzeuge, um eine größere Gruppe von Opfern anzusprechen und ihre Angriffe überzeugender — und möglicherweise lukrativer — zu gestalten.

Genauer gesagt können Cyberkriminelle generative künstliche Intelligenz (KI) einsetzen, um überzeugend klingende Anrufe durchzuführen. Generative KI und das sogenannte Voice Cloning, das Klonen von Stimmen, machen es schwieriger, Telefonbetrug als solchen zu erkennen. Da KI-Tools immer leichter zugänglich und benutzerfreundlicher werden, wird die Zahl der KI-Betrugsmaschen und anderer Betrügereien dieser Art stetig zunehmen.

Ein Vorteil der generativen KI für Cyberkriminelle besteht darin, dass sie noch überzeugendere Betrugsanrufe in einem noch nie da gewesenen Umfang ermöglicht. Bisher haben sich Betrüger auf generische Angriffe verlassen, die leicht als Betrug zu erkennen sind. Ein Beispiel sind Phishing-Nachrichten, bei denen nur der Name des Empfängers geändert wurde. Mit KI können Betrüger mit wesentlich geringerem Aufwand einzigartige Fake Anrufe und Nachrichten erzeugen, die auf eine bestimmte Person abzielen.

KI kann die Stimme einer Person nachahmen

Mithilfe von generativen KI-Tools können Betrüger einen kurzen Ausschnitt einer Stimme nutzen, um einen beliebigen, lebensechten Audioclip zu erstellen. Die KI-generierte Stimme kann der echten Person, wie beispielsweise einem Familienmitglied, unheimlich ähnlich sein. Das Opfer eines KI-Fake-Anrufs erkennt den Betrug daher möglicherweise nicht, selbst wenn es mit den üblichen Tricks der Betrüger vertraut ist. Das gilt insbesondere, wenn Dringlichkeit im Telefongespräch vermittelt wird.

Nach Angaben der US Federal Trade Commission (FTC) gehören Betrügereien durch Schwindler zu den häufigsten — von den 8,8 Milliarden US-Dollar, die Opfer im Jahr 2022 an Betrüger verloren haben, machen sie den größten Anteil aus. Mit der Omnipräsenz von KI wird diese Zahl höchstwahrscheinlich weiter steigen. Selbst die Verlustzahlen von Verbrauchern 2022 zeigen einen Anstieg von mehr als 30 % gegenüber dem Vorjahr an.

Mit einem kurzen Ausschnitt von nur wenigen Sekunden ist es möglich, die Stimme einer Person zu klonen. Das passende Material hierfür findet sich leicht: Auf Social Media gibt es unter anderem viele Videos von sprechenden Menschen. Das macht sie zu einer einfachen Fundgrube für Betrüger. Cyberkriminelle können auch Mailbox-Nachrichten verwenden oder Sie direkt anrufen, um eine Stimmprobe aufzunehmen.

Das sind die beliebtesten KI-Betrügereien

Das Klonen von Stimmen ist nur eine Art, wie Kriminelle künstliche Intelligenz nutzen, um ihre Opfer zu täuschen. Neben neuen Formen des Online-Betrugs kann KI auch eingesetzt werden, um herkömmliche Betrügereien wie Phishing und Identitätsdiebstahl zu verbessern. Einige beliebte Arten von KI-Betrug, auf die Sie achten sollten, umfassen:

  • Deepfakes: Künstliche Intelligenz kann mehr als nur Text und Ton nachahmen. Deepfakes sind KI-generierte Videos und Bilder von echten Menschen, deren Gesichter auf den Körper einer anderen Person kopiert wurden. Deepfakes werden verwendet, um explizite Videos von Personen zu produzieren, die nicht zugestimmt haben, Desinformationen zu verbreiten und ahnungslose Opfer zu betrügen.
  • Chatbot-Betrug: Mithilfe von KI können Cyberkriminelle Chatbots erstellen, die mit den Nutzern interagieren und sie täuschen. Das Chatten mit den falschen Personen fühlt sich oft authentisch an, obwohl sie in Wirklichkeit versuchen, Ihre Identität zu stehlen oder Ihr Geld zu ergaunern.
  • Social engineering: Traditionellere Social-Engineering-Angriffe zielen darauf ab, Sie zu einer bestimmten Handlung zu bringen, die Ihre Geräte für Malware anfällig macht oder Ihre persönlichen Daten in Gefahr bringt. KI-gestützte Social-Engineering-Angriffe können überzeugender wirken und sind leichter in größerem Umfang durchführbar.

Wie Sie Fake-Anrufe erkennen und Betrug vermeiden

Sie müssen nicht viel Geld auf dem Bankkonto haben, um im Internet betrogen zu werden. Jeder ist ein verlockendes Opfer für Cyberkriminalität, ob es sich nun um Hacking, Identitätsdiebstahl, die Verbreitung von Malware oder Telefonbetrug per KI handelt. Befolgen Sie die folgenden Ratschläge, um zu vermeiden, dass Sie mit KI-Fake-Anrufen betrogen oder auf andere Weise getäuscht werden:

  • Verifizieren Sie die Identität des Anrufers: Bei den meisten Betrugsmaschen geht es darum, sich als andere Person auszugeben. Allerdings macht es KI-Telefonbetrug schwieriger, dies zu erkennen. Die authentisch wirkende Stimme einer nahestehenden Person gepaart mit einem Gefühl der Dringlichkeit kann Sie dazu verleiten, unvorsichtig zu handeln. Überprüfen Sie daher unbedingt, ob der Anrufer wirklich derjenige ist, für den er sich ausgibt.
  • Melden Sie Betrugsmaschen: Indem Sie Betrügereien melden, einschließlich Phishing-E‑Mails, betrügerische SMS-Nachrichten oder AI-Sprachbetrug, helfen Sie anderen, nicht auf dieselben Tricks der Cyberkriminellen hereinzufallen. Betrüger geben sich oft als vertrauenswürdige Stellen aus wie Banken, die Polizei oder Lieferdienste.
  • Nutzen Sie die Zwei-Faktor-Authentifizierung, um Ihre Konten zu schützen. Wenn die Zwei-Faktor-Authentifizierung aktiviert ist, haben es Cyberkriminelle schwerer, auf Ihr Konto zuzugreifen, selbst wenn es ihnen gelingt, Ihr Passwort zu stehlen. Achten Sie auch mit 2FA darauf, dass Sie sichere Passwörter verwenden.
  • Machen Sie sich mit KI-Tools wie ChatGPT vertraut. Wenn Sie die Möglichkeiten der generativen KI kennen, werden Sie selbst bei legitim erscheinenden Nachrichten und anderen potenziellen Betrügereien misstrauischer sein.
  • Denken Sie nach, bevor Sie handeln. Sie werden nur dann zum Opfer von KI-Telefonbetrug und Vishing, wenn Sie nach den Wünschen der Betrüger handeln. Selbst wenn sich die Stimme wie eine Ihnen bekannte Person anhört, sollten Sie die Identität des Anrufers überprüfen, indem Sie z. B. dessen Telefonnummer anrufen.
  • Geben Sie KI-Tools keine persönlichen oder vertraulichen Informationen, auch nicht wissentlich. Es gab Fälle, in denen die Daten von Nutzern missbraucht wurden, als sie einem KI-Chat-Tool etwas Vertrauliches mitgeteilt haben.

Obwohl die KI-Technologie, die für Betrug und Telefonbetrug eingesetzt wird, immer differenzierter und technologisch fortschrittlicher wird, werden auch die Tools zur Bekämpfung des missbräuchlichen Einsatzes von KI immer besser. Seien Sie nicht nur vor KI-Betrügereien im Internet auf der Hut, sondern schützen Sie Ihre Geräte mit einer preisgekrönten Antivirus-Software wie F‑Secure Total vor Malware.

Schützen Sie Ihre Identität und Ihre Geräte online

Cyberkriminelle können sehr viel mehr tun, als Stimmen Ihrer Familienmitglieder, Freunde und Angehörigen zu klonen, um Sie zu täuschen. Malware, Hacking, Phishing und Identitätsdiebstahl sind weitere Methoden, mit denen Betrüger Geld stehlen und Geräte infizieren. Nutzen Sie F‑Secure Total und unser leistungsstarkes Antivirus-Programm, um Malware zu stoppen und gefährliche Websites zu identifizieren. Das VPN, die Tools zur Passwortverwaltung und der Identitätsschutz von Total helfen Ihnen, im Internet sicher zu bleiben. Testen Sie F‑Secure Total jetzt kostenlos.

Lesen Sie mehr und gratis testen