O Conselho de Supervisão da Meta afirmou na quinta-feira (25) que as regras da empresa não são “suficientemente claras” para proibir representações sexualmente explícitas geradas por inteligência artificial (IA) de pessoas reais e pediu mudanças para impedir que tais imagens circulem em suas plataformas.
O conselho, que é financiado pelo gigante das redes sociais mas opera de forma independente, emitiu sua decisão após revisar duas falsificações pornográficas de mulheres famosas criadas usando inteligência artificial e publicadas no Facebook e Instagram da Meta.
A Meta afirmou que revisará as recomendações do conselho e fornecerá uma atualização sobre quaisquer mudanças adotadas.
Em seu relatório, o conselho identificou as duas mulheres apenas como figuras públicas femininas da Índia e dos Estados Unidos, citando preocupações de privacidade.
O conselho concluiu que ambas as imagens violaram a regra da Meta que proíbe “photoshop sexualizado e depreciativo”, que a empresa classifica como uma forma de bullying e assédio, e afirmou que a Meta deveria removê-las prontamente.
No caso da mulher indiana, a Meta falhou em revisar um relatório de usuário sobre a imagem dentro de 48 horas, fazendo com que o ticket fosse fechado automaticamente sem nenhuma ação.
O usuário apelou, mas a empresa novamente se recusou a agir e só mudou de ideia depois que o conselho assumiu o caso, disse ele.
No caso da celebridade americana, os sistemas da Meta removeram automaticamente a imagem.
“As restrições a esse conteúdo são legítimas”, disse o conselho. “Dada a gravidade dos danos, remover o conteúdo é a única maneira eficaz de proteger as pessoas afetadas.”
O conselho recomendou que a Meta atualize sua regra para esclarecer seu escopo, dizendo, por exemplo, que o uso da palavra “photoshop” é “muito estreito” e a proibição deve cobrir uma ampla gama de técnicas de edição, incluindo IA generativa.
O conselho também criticou a Meta por se recusar a adicionar a imagem da mulher indiana a um banco de dados que permite remoções automáticas como a que ocorreu no caso da mulher americana.
De acordo com o relatório, a Meta disse ao conselho que depende da cobertura da mídia para determinar quando adicionar imagens ao banco de dados, uma prática que o conselho chamou de “preocupante”.
“Muitas vítimas de imagens íntimas deepfake não estão no centro das atenções e são forçadas a aceitar a disseminação de suas representações não consensuais ou a procurar e denunciar cada caso”, disse o conselho.
Leia também:
Este post foi modificado pela última vez em %s = human-readable time difference 09:42
A BlackForestLabs acaba de revelar o FLUX.1 Tools, quatro novos recursos de manipulação de imagens…
O mais recente modelo experimental Gemini da Google (1121) acabou de recuperar o primeiro lugar…
A OpenAI está considerando desenvolver um navegador web que se integraria ao ChatGPT e aos…
O Google DeepMind acaba de apresentar o AlphaQubit, um sistema de inteligência artificial (IA) que…
Um código recém-descoberto na última versão beta do ChatGPT sugere que a OpenAI pode estar…
A empresa chinesa de pesquisa em inteligência artificial (IA), DeepSeek, acaba de lançar o R1-Lite-Preview,…