亲人寻求帮助吗?不,这是一个人工智能骗局

诈骗警报! ⚠️ 犯罪分子利用人工智能 (AI) 创建的声音冒充处于危险中的亲人。 《华盛顿邮报》的一篇文章透露,5 年美国有超过 2022 人成为利用人工智能生成的虚假音频进行诈骗的受害者,损失已达数百万美元。查看并保持关注! 👀

@curtonews 亲人寻求帮助吗?不!这是一个人工智能骗局...小心🚨 #newsversobyCurto ♬ 原声 – Curto 新闻

人工智能已成为诈骗者的工具

确实如此。我们已经知道 IA 它有很多用途,不幸的是,包括协助和增加已知的骗局。

宣传

O Whatsapp 诈骗 – 当犯罪分子假装自己处于危险之中的亲人并索要/索要金钱时 – 这是理所当然的,但每天仍有成千上万的人继续成为受害者。 😖

现在这个技巧又增加了一个技巧: 由于人工智能程序易于使用,犯罪分子可以在短短几秒钟的时间内复制任何人的语音样本。通常,使用的技术是 Deepfake,它可以操纵音频并模拟某些声音,例如音色和音调。.

结果,个人变得困难 question无论您是否真的在与您认识的人交谈。

宣传

视频制作:你知道吗?

诈骗已造成超过 11 万美元的损失

根据来自的报告 “华盛顿邮报” (*🚥),在美国,此类骗局已成为诈骗者中第二大流行的骗局,据统计,仅 36 年就有超过 2022 万起举报 联邦贸易委员会 (联邦贸易委员会)。结果,超过11万美元被盗。 💸

新工具来自 Microsoft

以及情况 prome让你变得更糟,明白吗?随着这些人工智能工具的增加,诈骗应该会变得更加频繁和复杂。

Microsoft例如,开发了一种人工智能,能够从至少三秒的样本中复制人类的声音。 😱

宣传

经过超过 60 万小时的英语音频培训, IA VAL-E 可以根据文本创建演讲,甚至模拟情绪、不同的语气和表情。 (特克蒙多)

这并不容易,但要格外注意,好吗? 🙃

亲人寻求帮助吗?不,这是一个人工智能骗局(图片来源:Newsverso/Uesley Durães/Midjourney)

阅读:

(🇬🇧):英文内容

(*):由其他语言翻译的内容 Google 译者

(🚥):可能需要注册和/或订阅 

向上滑动