O Conselho de Supervisão da Meta afirmou na quinta-feira (25) que as regras da empresa não são “suficientemente claras” para proibir representações sexualmente explícitas geradas por inteligência artificial (IA) de pessoas reais e pediu mudanças para impedir que tais imagens circulem em suas plataformas.
O conselho, que é financiado pelo gigante das redes sociais mas opera de forma independente, emitiu sua decisão após revisar duas falsificações pornográficas de mulheres famosas criadas usando inteligência artificial e publicadas no Facebook e Instagram da Meta.
A Meta afirmou que revisará as recomendações do conselho e fornecerá uma atualização sobre quaisquer mudanças adotadas.
Em seu relatório, o conselho identificou as duas mulheres apenas como figuras públicas femininas da Índia e dos Estados Unidos, citando preocupações de privacidade.
O conselho concluiu que ambas as imagens violaram a regra da Meta que proíbe “photoshop sexualizado e depreciativo”, que a empresa classifica como uma forma de bullying e assédio, e afirmou que a Meta deveria removê-las prontamente.
No caso da mulher indiana, a Meta falhou em revisar um relatório de usuário sobre a imagem dentro de 48 horas, fazendo com que o ticket fosse fechado automaticamente sem nenhuma ação.
O usuário apelou, mas a empresa novamente se recusou a agir e só mudou de ideia depois que o conselho assumiu o caso, disse ele.
No caso da celebridade americana, os sistemas da Meta removeram automaticamente a imagem.
“As restrições a esse conteúdo são legítimas”, disse o conselho. “Dada a gravidade dos danos, remover o conteúdo é a única maneira eficaz de proteger as pessoas afetadas.”
O conselho recomendou que a Meta atualize sua regra para esclarecer seu escopo, dizendo, por exemplo, que o uso da palavra “photoshop” é “muito estreito” e a proibição deve cobrir uma ampla gama de técnicas de edição, incluindo IA generativa.
O conselho também criticou a Meta por se recusar a adicionar a imagem da mulher indiana a um banco de dados que permite remoções automáticas como a que ocorreu no caso da mulher americana.
De acordo com o relatório, a Meta disse ao conselho que depende da cobertura da mídia para determinar quando adicionar imagens ao banco de dados, uma prática que o conselho chamou de “preocupante”.
“Muitas vítimas de imagens íntimas deepfake não estão no centro das atenções e são forçadas a aceitar a disseminação de suas representações não consensuais ou a procurar e denunciar cada caso”, disse o conselho.
Leia também:
Este post foi modificado pela última vez em %s = human-readable time difference 09:42
Na versão mais recente do aplicativo Arquivos do Google, invocar o Gemini enquanto olha para…
O Google DeepMind acaba de anunciar uma parceria estratégica com a Apptronik, uma empresa de…
Uma equipe de pesquisadores de 20 laboratórios diferentes acaba de apresentar o Genesis, um motor…
O Google acabou de lançar o que está chamando de um novo modelo de inteligência…
A GitHub, de propriedade da Microsoft, acaba de anunciar um nível gratuito de seu Copilot…
A OpenAI acaba de lançar uma nova maneira surpreendente de acessar o ChatGPT - através…