@curtonews 亲人寻求帮助吗?不!这是一个人工智能骗局...小心🚨 #newsversobyCurto ♬ 原声 – Curto 新闻
人工智能已成为诈骗者的工具
确实如此。我们已经知道 IA 它有很多用途,不幸的是,包括协助和增加已知的骗局。
宣传
O Whatsapp 诈骗 – 当犯罪分子假装自己处于危险之中的亲人并索要/索要金钱时 – 这是理所当然的,但每天仍有成千上万的人继续成为受害者。 😖
现在这个技巧又增加了一个技巧: 由于人工智能程序易于使用,犯罪分子可以在短短几秒钟的时间内复制任何人的语音样本。通常,使用的技术是 Deepfake,它可以操纵音频并模拟某些声音,例如音色和音调。.
结果,个人变得困难 question无论您是否真的在与您认识的人交谈。
宣传
诈骗已造成超过 11 万美元的损失
根据来自的报告 “华盛顿邮报” (*🚥),在美国,此类骗局已成为诈骗者中第二大流行的骗局,据统计,仅 36 年就有超过 2022 万起举报 联邦贸易委员会 (联邦贸易委员会)。结果,超过11万美元被盗。 💸
新工具来自 Microsoft
以及情况 prome让你变得更糟,明白吗?随着这些人工智能工具的增加,诈骗应该会变得更加频繁和复杂。
A Microsoft例如,开发了一种人工智能,能够从至少三秒的样本中复制人类的声音。 😱
宣传
经过超过 60 万小时的英语音频培训, IA VAL-E 可以根据文本创建演讲,甚至模拟情绪、不同的语气和表情。 (特克蒙多)
这并不容易,但要格外注意,好吗? 🙃
阅读:
(🇬🇧):英文内容
(*):由其他语言翻译的内容 Google 译者
(🚥):可能需要注册和/或订阅