親人尋求協助嗎?不,這是一個人工智慧騙局

詐騙警報! ⚠️ 犯罪分子利用人工智慧 (AI) 創造的聲音冒充處於危險中的親人。 《華盛頓郵報》的一篇文章透露,5 年美國有超過 2022 人成為利用人工智慧產生的虛假音訊進行詐騙的受害者,損失已達數百萬美元。查看並保持關注! 👀

@curtonews 親人尋求協助嗎?不!這是一個人工智慧騙局...小心🚨 #newsversobyCurto ♬ 原聲 – Curto 最新消息

人工智慧已成為詐騙者的工具

確實如此。我們已經知道 IA 它有很多用途,不幸的是,包括協助和增加已知的騙局。

宣傳

O Whatsapp 詐騙 – 當犯罪者假裝自己處於危險之中的親人並要求/要求金錢時 – 這是理所當然的,但每天仍有成千上萬的人繼續成為受害者。 😖

現在這個技巧又增加了一個技巧: 由於人工智慧程式易於使用,犯罪分子可以在短短幾秒鐘的時間內複製任何人的語音樣本。通常,使用的技術是 Deepfake,它可以操縱音訊並模擬某些聲音,例如音色和音調。.

結果,個人變得困難 question無論您是否真的在與您認識的人交談。

宣傳

影片製作:你知道嗎?

詐騙已造成超過 11 萬美元的損失

根據來自的報告 “華盛頓郵報” (*🚥),在美國,此類詐騙已成為第二大最受詐騙者歡迎的騙局,據統計,僅 36 年就有超過 2022 萬起舉報 聯邦貿易委員會 (聯邦貿易委員會)。結果,超過11萬美元被盜。 💸

新工具來自 Microsoft

以及情況 prome讓你變得更糟,懂嗎?隨著這些人工智慧工具的增加,詐騙應該會變得更加頻繁和複雜。

Microsoft例如,開發了一種人工智慧,能夠從至少三秒的樣本中複製人類的聲音。 😱

宣傳

經過超過 60 萬小時的英語音頻培訓, IA VAL-E 可以根據文字創建演講,甚至模擬情緒、不同的語氣和表情。 (千克蒙多)

這並不容易,但是要格外注意,好嗎? 🙃

親人尋求協助嗎?不,這是一個人工智慧騙局(圖片來源:Newsverso/Uesley Durães/Midjourney)

閱讀:

(🇬🇧):英文內容

(*):由其他語言翻譯的內容 Google 譯者

(🚥):可能需要註冊和/或訂閱 

向上滑動