被害者を保護し、セクストーションと戦うための人工知能

人工知能の専門家は、ウェブを介したセクストーション (または性的恐喝) を防止し、犯罪が発生する前に検知する方法を開発しています。この犯罪行為は、金銭恐喝の下で誰かに何かを強要するために、親密な画像を公開すると脅すことで構成されています。近年、特に米国で犯罪が爆発的に増加しており、十代の若者や子供たちが被害を受けており、FBIは犯罪行為について警告を発することを余儀なくされている。

一方、犯罪者は人工知能を使用して性的な画像を作成し、それを次の目的に使用します。 セクストーション、 同じテクノロジーは、世界中で増え続けるこの慣習を防ぐのに役立ちます。

宣伝

工学部の教授aria カリフォルニアのバークレー大学の電気およびコンピューター科学の専門家は、オンライン通信を分析し、潜在的な脅威を特定するための自然言語処理 (NLP) テクノロジーを開発しました。

オンライン過激主義やテロと闘う NGO であるカウンター過激主義プロジェクトの一員であるハニー・ファリド氏は、インターネット セクストーションの疑いのある事件に NLP を適用し、脅迫や恐喝を示唆する行動や言語のパターンを特定しています。この技術は、個人情報の要求、一方的な性的コンテンツ、脅迫、被害者に対する操作や嫌がらせを検出します。

AI は、NLP を通じて、潜在的な捕食者にセクストーションの法的影響を通知することで、潜在的な捕食者を阻止するための自動応答も生成します。また、被害者の救出に加えて、犯罪者の特定と位置特定に役立つ情報と証拠を提供して、全米の法執行機関を支援することもできます。

宣伝

によると 独立したBNNウェブサイト, AI は、オンライン通信から IP アドレス、地理的位置、時刻、デバイス情報などのメタデータを抽出し、通信の発信元と宛先を追跡し、実際の身元と結び付けるのに役立ちます。

AIを専門とする会社が、セクストーションに使用される可能性のある本物または「ディープフェイク」の露骨な性的画像を検出

ビーチで撮影され、ティーンエイジャーが投稿した無邪気な写真は、「ディープフェイク」に歪められ、露骨な性的画像に変えられ、セクストーションに使用される可能性があります。

北米の企業 Canopy は、子供や青少年のコンピューターや携帯電話にあるこれらの画像を識別し、ブロックできるソフトウェアを開発しました。罪のないビキニ写真さえも送信をブロックされ、親に警告を発している。

宣伝

「私たちのテクノロジーは、写真やビデオの画像をほんの数秒で認識できます」とリトウィン氏は語った。 フォックスニュースデジタル。

「プラットフォーム自体も、子供がウェブサイトやアプリケーションを閲覧している間に露骨な画像をリアルタイムでフィルタリングし、未成年者がインターネットにアクセスするのを防ぎます」と彼は述べています。

出典: BNN および Fox News Digital

また、お読みください。

スクロールアップする