Créditos da imagem: AFP

Proteção contra deepfakes: Meta recebe ordem para mudar políticas

O Conselho de Supervisão da Meta afirmou na quinta-feira (25) que as regras da empresa não são “suficientemente claras” para proibir representações sexualmente explícitas geradas por inteligência artificial (IA) de pessoas reais e pediu mudanças para impedir que tais imagens circulem em suas plataformas.

PUBLICIDADE

O conselho, que é financiado pelo gigante das redes sociais mas opera de forma independente, emitiu sua decisão após revisar duas falsificações pornográficas de mulheres famosas criadas usando inteligência artificial e publicadas no Facebook e Instagram da Meta.

A Meta afirmou que revisará as recomendações do conselho e fornecerá uma atualização sobre quaisquer mudanças adotadas.

Em seu relatório, o conselho identificou as duas mulheres apenas como figuras públicas femininas da Índia e dos Estados Unidos, citando preocupações de privacidade.

PUBLICIDADE

O conselho concluiu que ambas as imagens violaram a regra da Meta que proíbe “photoshop sexualizado e depreciativo”, que a empresa classifica como uma forma de bullying e assédio, e afirmou que a Meta deveria removê-las prontamente.

No caso da mulher indiana, a Meta falhou em revisar um relatório de usuário sobre a imagem dentro de 48 horas, fazendo com que o ticket fosse fechado automaticamente sem nenhuma ação.

O usuário apelou, mas a empresa novamente se recusou a agir e só mudou de ideia depois que o conselho assumiu o caso, disse ele.

PUBLICIDADE

No caso da celebridade americana, os sistemas da Meta removeram automaticamente a imagem.

“As restrições a esse conteúdo são legítimas”, disse o conselho. “Dada a gravidade dos danos, remover o conteúdo é a única maneira eficaz de proteger as pessoas afetadas.”

O conselho recomendou que a Meta atualize sua regra para esclarecer seu escopo, dizendo, por exemplo, que o uso da palavra “photoshop” é “muito estreito” e a proibição deve cobrir uma ampla gama de técnicas de edição, incluindo IA generativa.

PUBLICIDADE

O conselho também criticou a Meta por se recusar a adicionar a imagem da mulher indiana a um banco de dados que permite remoções automáticas como a que ocorreu no caso da mulher americana.

De acordo com o relatório, a Meta disse ao conselho que depende da cobertura da mídia para determinar quando adicionar imagens ao banco de dados, uma prática que o conselho chamou de “preocupante”.

“Muitas vítimas de imagens íntimas deepfake não estão no centro das atenções e são forçadas a aceitar a disseminação de suas representações não consensuais ou a procurar e denunciar cada caso”, disse o conselho.

PUBLICIDADE

Leia também:

Rolar para cima