Des proches qui demandent de l'aide ? Non, c'est une arnaque à l'intelligence artificielle

Alerte aux arnaques! ⚠️ Les criminels utilisent des voix créées par l'intelligence artificielle (IA) pour se faire passer pour des proches en danger. Un article du Washington Post a révélé que plus de 5 2022 personnes ont été victimes d’escroqueries utilisant de faux fichiers audio générés par l’IA aux États-Unis en XNUMX et que les pertes se chiffrent déjà en millions. Vérifiez-le et restez à l'écoute ! 👀

@curtonews Des proches qui demandent de l'aide ? Non! C'est une arnaque à l'intelligence artificielle... Attention 🚨 #newsversobyCurto ♬ son original – Curto Actualité

L'intelligence artificielle est devenue un outil pour les escrocs

Donc c'est. Nous savons déjà que le IA Il est utilisé à de nombreuses fins, notamment – ​​malheureusement – ​​pour faciliter et accroître les escroqueries connues.

PUBLICITÉ

O Arnaque WhatsApp – lorsque des criminels se font passer pour des êtres chers en danger et demandent/exigent de l’argent – ​​cela va de soi, mais des milliers de personnes continuent d’en être victimes chaque jour. 😖

Maintenant, cette astuce gagne une autre astuce : Grâce à la facilité d'utilisation des programmes d'IA, les criminels peuvent copier le discours de n'importe qui à partir d'un échantillon de quelques secondes seulement. Généralement, la technologie utilisée est le deepfake, qui peut manipuler l'audio et simuler certaines voix, telles que le timbre et le ton..

En conséquence, il devient difficile pour l'individu questionsi vous parlez réellement à quelqu'un que vous connaissez ou non.

PUBLICITÉ

Vidéo de : Le saviez-vous ?

L'arnaque a déjà coûté plus de 11 millions de dollars de pertes

Selon le rapport de Washington Post (*(I.e.), aux États-Unis, ce type d'arnaque est devenu le deuxième plus populaire parmi les escrocs, avec plus de 36 2022 signalements rien qu'en XNUMX, selon le Commission fédérale du commerce (FTC). En conséquence, plus de 11 millions de dollars américains ont été volés. 💸

Nouvel outil de Microsoft

Et la situation promeça ne fait qu'empirer, tu vois ? Avec la multiplication de ces outils d’IA, les escroqueries devraient devenir plus fréquentes et plus sophistiquées.

Microsoft, par exemple, a développé une IA capable de reproduire des voix humaines à partir d’échantillons d’au moins trois secondes. 😱

PUBLICITÉ

Formé avec plus de 60 mille heures d'audio en anglais, le IA VALL-E peut créer des discours à partir d'un texte, voire simuler des émotions, différents tons de voix et expressions. (Tecmundo)

Ce n'est pas facile, mais fais très attention, d'accord ? 🙃

Des proches qui demandent de l'aide ? Non, c'est une arnaque à l'intelligence artificielle (Image : Newsverso/Uesley Durães/Midjourney)

Lire aussi:

(🇫🇷) : contenu en anglais

(*) : Contenu dans d'autres langues traduit par Google Traducteur

(🚥) : peut nécessiter une inscription et/ou un abonnement 

Faire défiler vers le haut