「評議会は、 Meta コンテンツモデレーションよりも経済的利益を優先した」と、この事業体は独立系に分類されているが、同社から資金提供を受けていると述べた。
宣伝
同評議会は報告書の中で、より透明性、即応性、公平性を高めるため、「クロスチェック」と呼ばれる二重チェックプログラムの「大幅な見直し」を求めている。
現在、ポリシーに違反する可能性のある投稿や画像が投稿された場合、 Facebook ou Instagram フラグが付けられている場合、危険すぎると考えられる場合や不明なユーザーからのものである場合は、すぐに削除されます。しかし、作成者がわかっている場合、そのコンテンツはさらに調査されるまでオンラインに残り、このプロセスには多くの場合数日、場合によっては数か月かかります。
この「不均一な」2 段階システムは、「企業の経済的利益に部分的に基づいて選択された、特定のユーザーの表現に対する追加の保護を提供します。」 Meta」にレポートの詳細が記載されています。
宣伝
これは、「コンテンツの規則に反していると特定されたコンテンツ」を意味します。 Meta に表示されたままになる Facebook と Instagramウイルス的に拡散し、潜在的な危害を引き起こす一方で」と評議会は警告した。
この評議会は、ジャーナリスト、弁護士、人権活動家、元政治指導者を含む20人の国際メンバーで構成されています。 2020 年の設立は CEO のマーク ザッカーバーグによって提案され、カリフォルニア州グループのコンテンツ モデレーション ポリシーの評価を担当しています。
(com AFP)
また、お読みください。