Des fraudeurs utilisent désormais votre voix pour escroquer vos proches

ai-with-voice
Facebook
Twitter
LinkedIn
Reddit
WhatsApp
Email

On a beaucoup parlé des deep fakes ces derniers mois, des vidéos truquées où on peut faire dire n’importe quoi par n’importe qui, et c’est une version strictement audio de cette technologie qui commence à inquiéter les experts en sécurité informatique. Car on observe des jours-ci une hausse notoire de cas de tentatives de fraudes où les fraudeurs imitaient la voix de la victime pour tenter de soutirer de l’argent à un proche.

Un exemple qui a été cité par le Washington Post plus tôt cette semaine est celui de grands-parents qui vivent au Canada et qui ont reçu un coup de fil de leur petit-fils, qui leur a expliqué être dans une situation difficile et qui leur a demandé un virement de 3000 dollars.

Or, vous l’aurez compris, ce n’était pas le petit-fils, mais bien une voix synthétique identique à la sienne.

C’est inquiétant. C’est doublement inquiétant en fait, étant donné que c’est extrêmement facile de trouver un échantillon de voix d’à peu près n’importe qui sur les réseaux sociaux, comme TikTok par exemple, pour ensuite le reproduire à volonté.

En fait, il existe même des logiciels accessibles gratuitement sur Internet qui vont transformer instantanément du texte écrit au clavier d’un ordinateur en un discours oral à peu près impossible à distinguer de l’original.

Évidemment, les experts en sécurité informatique insistent pour rappeler l’importance d’être vigilants si quelqu’un vous appelle d’un peu nulle part et vous demande de virer une somme d’argent assez importante. Assurez- vous que vous parlez à la bonne personne, et surtout, que vous n’envoyez pas cet argent à une adresse que vous ne connaissez pas…

Dernier articles

Abonnez-vous à nos réseaux sociaux