@curtonews 親人尋求協助嗎?不!這是一個人工智慧騙局...小心🚨 #newsversobyCurto ♬ 原聲 – Curto 最新消息
人工智慧已成為詐騙者的工具
確實如此。我們已經知道 IA 它有很多用途,不幸的是,包括協助和增加已知的騙局。
宣傳
O Whatsapp 詐騙 – 當犯罪者假裝自己處於危險之中的親人並要求/要求金錢時 – 這是理所當然的,但每天仍有成千上萬的人繼續成為受害者。 😖
現在這個技巧又增加了一個技巧: 由於人工智慧程式易於使用,犯罪分子可以在短短幾秒鐘的時間內複製任何人的語音樣本。通常,使用的技術是 Deepfake,它可以操縱音訊並模擬某些聲音,例如音色和音調。.
結果,個人變得困難 question無論您是否真的在與您認識的人交談。
宣傳
詐騙已造成超過 11 萬美元的損失
根據來自的報告 “華盛頓郵報” (*🚥),在美國,此類詐騙已成為第二大最受詐騙者歡迎的騙局,據統計,僅 36 年就有超過 2022 萬起舉報 聯邦貿易委員會 (聯邦貿易委員會)。結果,超過11萬美元被盜。 💸
新工具來自 Microsoft
以及情況 prome讓你變得更糟,懂嗎?隨著這些人工智慧工具的增加,詐騙應該會變得更加頻繁和複雜。
A Microsoft例如,開發了一種人工智慧,能夠從至少三秒的樣本中複製人類的聲音。 😱
宣傳
經過超過 60 萬小時的英語音頻培訓, IA VAL-E 可以根據文字創建演講,甚至模擬情緒、不同的語氣和表情。 (千克蒙多)
這並不容易,但是要格外注意,好嗎? 🙃
閱讀:
(🇬🇧):英文內容
(*):由其他語言翻譯的內容 Google 譯者
(🚥):可能需要註冊和/或訂閱