Comment fonctionnent les appels frauduleux par IA

L’IA est l’une des plus grandes innovations récentes, mais elle est aussi utilisée avec de mauvaises intentions. Les appels frauduleux liés à l’IA sont une forme émergente de cybercriminalité.

Comment fonctionnent les appels frauduleux par IA

Comment les criminels vous escroquent grâce à l’IA

Les appels frauduleux n’ont rien de nouveau. Les criminels ont utilisé le téléphone pour escroquer leurs victimes bien avant qu’internet ne soit accessible à la quasi-totalité des habitants de la planète. Avec les nouvelles technologies, comme l’intelligence artificielle, les escrocs du web disposent de nouveaux outils pour cibler un plus grand nombre de victimes et rendre leurs attaques plus convaincantes — et potentiellement plus lucratives.

Plus précisément, les cybercriminels peuvent utiliser l’intelligence artificielle générative (IA) pour fabriquer des appels à la sonorité convaincante. Par conséquent, l’IA générative et le clonage vocal de l’IA ont rendu les appels frauduleux plus difficiles à identifier. Et comme les outils d’IA deviennent de plus en plus accessibles et faciles à utiliser, le nombre d’escroqueries à l’IA et d’autres fraudes de ce type ne fera qu’augmenter.

L’un des avantages de l’IA générative pour les cybercriminels est qu’elle leur permet de créer des appels frauduleux plus convaincants à une échelle sans précédent. Jusqu’à présent, les escrocs s’appuyaient sur des attaques génériques faciles à repérer comme fausses, telles que les messages de phishing dont seul le nom du destinataire a été modifié. Grâce à l’IA, les escrocs peuvent générer des appels et des messages d’escroquerie uniques ciblant une personne donnée avec un effort bien moindre.

Générer la voix d’une personne avec l’IA

Grâce à des outils d’IA générative, les escrocs peuvent choisir un extrait de la voix d’une personne et créer un clip audio ressemblant à ce qu’ils souhaitent. La voix générée par l’IA peut ressembler étrangement à la personne réelle, par exemple à un membre de votre famille. Avec un sentiment d’urgence, la victime d’un appel frauduleux généré par l’IA peut ne pas savoir qu’il s’agit d’une escroquerie, même si elle est familière avec les astuces couramment utilisées par les fraudeurs.

Selon la US Federal Trade Commission (FTC), les escroqueries à l’imposture sont parmi les plus courantes, prenant la plus grande part du total de 8,8 milliards de dollars que les victimes ont perdu au profit des cyber escrocs en 2022. Avec l’arrivée de l’IA, ce chiffre est susceptible d’augmenter considérablement. Même les chiffres de 2022 concernant les pertes subies par les consommateurs montrent une augmentation de plus de 30 % par rapport à l’année précédente.

Il suffit d’un extrait de quelques secondes pour fabriquer la voix d’une personne, et le matériel en ligne ne manque pas. Par exemple, les médias sociaux regorgent de vidéos de personnes en train de parler, ce qui en fait un trésor à exploiter pour les cybercriminels. Les criminels en ligne peuvent également utiliser des messages vocaux ou vous appeler directement pour obtenir un échantillon de votre voix.

Arnaques courantes à l’IA

Les escroqueries par clonage de voix ne sont qu’une des façons dont les criminels utilisent l’intelligence artificielle pour tromper leurs victimes. Outre les nouvelles formes de fraude en ligne, l’IA peut être utilisée pour renforcer des escroqueries plus traditionnelles, telles que le phishing et l’usurpation d’identité. Voici quelques types courants d’escroqueries à l’IA à surveiller :

  • Fausses informations. L’IA peut reproduire bien plus que du texte et du son. Les deepfakes sont des vidéos et des images générées par l’IA de personnes réelles dont le visage est collé sur le corps de quelqu’un d’autre. Les Deepfakes sont utilisés pour fabriquer des vidéos explicites de personnes non consentantes, diffuser des informations erronées et escroquer des victimes qui ne se doutent de rien.
  • Escroqueries par chatbot. Grâce à l’IA, les criminels en ligne peuvent créer des chatbots qui interagissent avec l’utilisateur pour le tromper. Le chat avec ces fausses personnes peut sembler authentique, alors qu’en réalité, elles essaient de voler votre identité ou d’escroquer votre argent.
  • Ingénierie sociale. Les attaques plus traditionnelles d’ingénierie sociale visent à vous faire faire quelque chose qui compromet vos appareils avec des logiciels malveillants ou qui met en danger vos informations personnelles. Les attaques d’ingénierie sociale basées sur l’IA peuvent paraître plus convaincantes et sont plus faciles à mettre en œuvre à grande échelle.

Comment repérer et éviter les escroqueries à l’IA

Il n’est pas nécessaire d’avoir un compte en banque bien garni pour se faire escroquer sur l’internet. Tout le monde peut être victime de cybercriminalité, qu’il s’agisse de piratage, d’usurpation d’identité, de diffusion de maliciels ou d’escroquerie par de faux appels d’IA. Suivez ces conseils pour éviter de vous faire escroquer par des appels d’IA frauduleux ou d’être trompé d’une autre manière :

  • Confirmez l’identité de l’appelant. La plupart des escroqueries reposent sur l’usurpation d’identité, mais les appels d’escroquerie à l’IA facilitent la tromperie. L’imitation de la personne aimée, combinée à un sentiment d’urgence, peut vous inciter à agir de manière imprudente, alors vérifiez que l’appelant est bien celui qu’il prétend être.
  • En signalant les escroqueries, y compris les courriels de phishing, les SMS frauduleux ou les escroqueries à la voix AI, vous aidez les autres à ne pas tomber dans le piège des cybercriminels. Les escrocs se font souvent passer pour des entités de confiance, telles que des banques, la police ou des services de livraison.
  • Utilisez l’authentification à deux facteurs pour protéger vos comptes. Lorsque l’authentification à deux facteurs est activée, les criminels en ligne ont plus de mal à accéder à votre compte, même s’ils parviennent à voler votre mot de passe. Même avec l’authentification à deux facteurs, veillez à utiliser des mots de passe forts.
  • Familiarisez-vous avec des outils d’IA comme ChatGPT. Une fois que vous connaissez les capacités de l’IA générative, vous savez que vous devez vous méfier davantage des messages qui semblent légitimes et d’autres escroqueries potentielles.
  • Réfléchissez avant d’agir. Vous ne subirez les conséquences des escroqueries par voix AI et vishing que si vous agissez conformément aux souhaits des fraudeurs. Même si la voix ressemble à celle d’une personne que vous connaissez, vérifiez l’identité de l’appelant en appelant son numéro de téléphone, par exemple.
  • Ne donnez à l’IA aucune information personnelle ou confidentielle, même en connaissance de cause. Il y a eu des cas où les informations d’utilisateurs ont été compromises parce qu’ils avaient dit quelque chose de confidentiel à un outil de chat de l’IA.

Bien que la technologie de l’IA utilisée pour les fraudes et les escroqueries téléphoniques soit de plus en plus nuancée et technologiquement avancée, il en va de même pour les outils permettant de lutter contre l’utilisation malveillante de l’IA. En plus de vous méfier des escroqueries à l’IA sur Internet, protégez vos appareils contre les logiciels malveillants à l’aide d’un logiciel antivirus primé , tel que F‑Secure Total.

Protégez votre identité et vos appareils en ligne

Cybercriminels peuvent faire bien plus que cloner les voix des membres de votre famille, de vos amis et de vos proches pour vous tromper. Les logiciels malveillants, le piratage, le phishing et l’usurpation d’identité sont d’autres moyens utilisés par les cybercriminels pour voler de l’argent et infecter des appareils. Utilisez F‑Secure Total et son puissant antivirus pour bloquer les logiciels malveillants et identifier les sites web dangereux. Le VPN de Total, les outils de gestion des mots de passe et la protection de l’identité en ligne vous aident à rester en sécurité sur Internet. Essayez F‑Secure Total gratuitement.

En savoir plus et essayer gratuitement