O Conselho de Supervisão da Meta afirmou na quinta-feira (25) que as regras da empresa não são “suficientemente claras” para proibir representações sexualmente explícitas geradas por inteligência artificial (IA) de pessoas reais e pediu mudanças para impedir que tais imagens circulem em suas plataformas.
O conselho, que é financiado pelo gigante das redes sociais mas opera de forma independente, emitiu sua decisão após revisar duas falsificações pornográficas de mulheres famosas criadas usando inteligência artificial e publicadas no Facebook e Instagram da Meta.
A Meta afirmou que revisará as recomendações do conselho e fornecerá uma atualização sobre quaisquer mudanças adotadas.
Em seu relatório, o conselho identificou as duas mulheres apenas como figuras públicas femininas da Índia e dos Estados Unidos, citando preocupações de privacidade.
O conselho concluiu que ambas as imagens violaram a regra da Meta que proíbe “photoshop sexualizado e depreciativo”, que a empresa classifica como uma forma de bullying e assédio, e afirmou que a Meta deveria removê-las prontamente.
No caso da mulher indiana, a Meta falhou em revisar um relatório de usuário sobre a imagem dentro de 48 horas, fazendo com que o ticket fosse fechado automaticamente sem nenhuma ação.
O usuário apelou, mas a empresa novamente se recusou a agir e só mudou de ideia depois que o conselho assumiu o caso, disse ele.
No caso da celebridade americana, os sistemas da Meta removeram automaticamente a imagem.
“As restrições a esse conteúdo são legítimas”, disse o conselho. “Dada a gravidade dos danos, remover o conteúdo é a única maneira eficaz de proteger as pessoas afetadas.”
O conselho recomendou que a Meta atualize sua regra para esclarecer seu escopo, dizendo, por exemplo, que o uso da palavra “photoshop” é “muito estreito” e a proibição deve cobrir uma ampla gama de técnicas de edição, incluindo IA generativa.
O conselho também criticou a Meta por se recusar a adicionar a imagem da mulher indiana a um banco de dados que permite remoções automáticas como a que ocorreu no caso da mulher americana.
De acordo com o relatório, a Meta disse ao conselho que depende da cobertura da mídia para determinar quando adicionar imagens ao banco de dados, uma prática que o conselho chamou de “preocupante”.
“Muitas vítimas de imagens íntimas deepfake não estão no centro das atenções e são forçadas a aceitar a disseminação de suas representações não consensuais ou a procurar e denunciar cada caso”, disse o conselho.
Leia também:
Este post foi modificado pela última vez em 25 de julho de 2024 09:42
A Walt Disney está formando um novo grupo para coordenar o uso da empresa de…
A Nvidia acaba de publicar uma nova pesquisa apresentando o HOVER, uma pequena rede neural…
O ChatGPT agora é oficialmente um mecanismo de busca com inteligência artificial (IA). A empresa…
A Ucrânia está usando dezenas de sistemas de inteligência artificial (IA) fabricados localmente para seus…
A Alphabet, dona do Google, anunciou na quinta-feira (31) um conjunto de recursos que incorporam…
A startup de design Recraft acaba de anunciar seu novo modelo de inteligência artificial (IA)…