@curtonews 愛する人が助けを求めていますか?いいえ!人工知能詐欺です…気をつけてください🚨 #ニュースバーソビーCurto ♬ 原音 – Curto ニュース
人工知能は詐欺師の道具になっている
そうです。私たちはすでにそれを知っています IA これは、残念なことに、既知の詐欺を支援したり増加させたりすることを含め、さまざまな目的で使用されています。
宣伝
O Whatsapp詐欺 – 犯罪者が危険にさらされている愛する人を装い、金銭を要求/要求する場合 – それは当然のことですが、毎日何千人もの人々が被害に遭い続けています。 😖
さて、このトリックには別のトリックが追加されています。 AI プログラムは使いやすいため、犯罪者はほんの数秒のサンプルから誰のスピーチもコピーすることができます。通常、使用されるテクノロジーはディープフェイクであり、オーディオを操作し、音色やトーンなどの特定の音声をシミュレートできます。.
その結果、個人では困難になる question実際に知っている人と話しているかどうか。
宣伝
詐欺による損失はすでに 11 万米ドルを超えています
からの報告によると、 ワシントン・ポスト (*🚥)、米国では、この種の詐欺は詐欺師の間で 36 番目に人気があり、2022 年だけで XNUMX 件以上の報告があったとのことです。 連邦取引委員会 (FTC)。その結果、11万ドル以上が盗まれました。 💸
からの新しいツール Microsoft
そして状況は promeあなたをさらに悪化させます、わかりますか?こうした AI ツールの増加に伴い、詐欺はより頻繁かつ巧妙になるはずです。
A Microsoftたとえば、少なくとも 3 秒のサンプルから人間の声を複製できる AI を開発しました。 😱
宣伝
60 時間以上の英語音声でトレーニングされた、 IA ヴァリー テキストからスピーチを作成し、感情やさまざまな声のトーンや表情をシミュレートすることもできます。 (テクムンド)
簡単ではありませんが、特に注意してください。 🙃
また、お読みください。
(🇬🇧): 英語のコンテンツ
(*): によって翻訳された他言語のコンテンツ Google 翻訳者
(🚥): 登録および/または購読が必要な場合があります