愛する人が助けを求めていますか?いいえ、それは人工知能詐欺です

詐欺注意報! ⚠️ 犯罪者は人工知能 (AI) によって作成された音声を使用して、危険にさらされている愛する人になりすます。ワシントン・ポストの記事によると、5年に米国でAIが生成した偽音声を使った詐欺の被害者は2022人以上に達し、その被害額はすでに数百万ドルに達しているという。ぜひチェックして楽しみにしていてください! 👀

@curtonews 愛する人が助けを求めていますか?いいえ!人工知能詐欺です…気をつけてください🚨 #ニュースバーソビーCurto ♬ 原音 – Curto ニュース

人工知能は詐欺師の道具になっている

そうです。私たちはすでにそれを知っています IA これは、残念なことに、既知の詐欺を支援したり増加させたりすることを含め、さまざまな目的で使用されています。

宣伝

O Whatsapp詐欺 – 犯罪者が危険にさらされている愛する人を装い、金銭を要求/要求する場合 – それは当然のことですが、毎日何千人もの人々が被害に遭い続けています。 😖

さて、このトリックには別のトリックが追加されています。 AI プログラムは使いやすいため、犯罪者はほんの数秒のサンプルから誰のスピーチもコピーすることができます。通常、使用されるテクノロジーはディープフェイクであり、オーディオを操作し、音色やトーンなどの特定の音声をシミュレートできます。.

その結果、個人では困難になる question実際に知っている人と話しているかどうか。

宣伝

ビデオ提供者: 知っていましたか?

詐欺による損失はすでに 11 万米ドルを超えています

からの報告によると、 ワシントン・ポスト (*🚥)、米国では、この種の詐欺は詐欺師の間で 36 番目に人気があり、2022 年だけで XNUMX 件以上の報告があったとのことです。 連邦取引委員会 (FTC)。その結果、11万ドル以上が盗まれました。 💸

からの新しいツール Microsoft

そして状況は promeあなたをさらに悪化させます、わかりますか?こうした AI ツールの増加に伴い、詐欺はより頻繁かつ巧妙になるはずです。

Microsoftたとえば、少なくとも 3 秒のサンプルから人間の声を複製できる AI を開発しました。 😱

宣伝

60 時間以上の英語音声でトレーニングされた、 IA ヴァリー テキストからスピーチを作成し、感情やさまざまな声のトーンや表情をシミュレートすることもできます。 (テクムンド)

簡単ではありませんが、特に注意してください。 🙃

愛する人が助けを求めていますか?いいえ、それは人工知能詐欺です (画像: Newsverso/Uesley Durães/Midjourney)

また、お読みください。

(🇬🇧): 英語のコンテンツ

(*): によって翻訳された他言語のコンテンツ Google 翻訳者

(🚥): 登録および/または購読が必要な場合があります 

スクロールアップする