Inteligência Artificial

Proteção contra deepfakes: Meta recebe ordem para mudar políticas

Publicado por
Isabella Caminoto

O Conselho de Supervisão da Meta afirmou na quinta-feira (25) que as regras da empresa não são “suficientemente claras” para proibir representações sexualmente explícitas geradas por inteligência artificial (IA) de pessoas reais e pediu mudanças para impedir que tais imagens circulem em suas plataformas.

O conselho, que é financiado pelo gigante das redes sociais mas opera de forma independente, emitiu sua decisão após revisar duas falsificações pornográficas de mulheres famosas criadas usando inteligência artificial e publicadas no Facebook e Instagram da Meta.

A Meta afirmou que revisará as recomendações do conselho e fornecerá uma atualização sobre quaisquer mudanças adotadas.

Em seu relatório, o conselho identificou as duas mulheres apenas como figuras públicas femininas da Índia e dos Estados Unidos, citando preocupações de privacidade.

O conselho concluiu que ambas as imagens violaram a regra da Meta que proíbe “photoshop sexualizado e depreciativo”, que a empresa classifica como uma forma de bullying e assédio, e afirmou que a Meta deveria removê-las prontamente.

No caso da mulher indiana, a Meta falhou em revisar um relatório de usuário sobre a imagem dentro de 48 horas, fazendo com que o ticket fosse fechado automaticamente sem nenhuma ação.

O usuário apelou, mas a empresa novamente se recusou a agir e só mudou de ideia depois que o conselho assumiu o caso, disse ele.

No caso da celebridade americana, os sistemas da Meta removeram automaticamente a imagem.

“As restrições a esse conteúdo são legítimas”, disse o conselho. “Dada a gravidade dos danos, remover o conteúdo é a única maneira eficaz de proteger as pessoas afetadas.”

O conselho recomendou que a Meta atualize sua regra para esclarecer seu escopo, dizendo, por exemplo, que o uso da palavra “photoshop” é “muito estreito” e a proibição deve cobrir uma ampla gama de técnicas de edição, incluindo IA generativa.

O conselho também criticou a Meta por se recusar a adicionar a imagem da mulher indiana a um banco de dados que permite remoções automáticas como a que ocorreu no caso da mulher americana.

De acordo com o relatório, a Meta disse ao conselho que depende da cobertura da mídia para determinar quando adicionar imagens ao banco de dados, uma prática que o conselho chamou de “preocupante”.

“Muitas vítimas de imagens íntimas deepfake não estão no centro das atenções e são forçadas a aceitar a disseminação de suas representações não consensuais ou a procurar e denunciar cada caso”, disse o conselho.

Leia também:

Este post foi modificado pela última vez em %s = human-readable time difference 09:42

Isabella Caminoto

Advogada e mestranda em Direito Internacional, tenho a democracia e a liberdade como bandeiras irrenunciáveis. Sou apaixonada pelos animais e acredito que o bem-estar do nosso planeta deveria ser o destaque diário da pauta da nossa sociedade.

Posts recentes

Black Forest Labs lança suíte de edição de imagens com IA

A BlackForestLabs acaba de revelar o FLUX.1 Tools, quatro novos recursos de manipulação de imagens…

24 de novembro de 2024

Gemini recupera o primeiro lugar no ranking de LLM

O mais recente modelo experimental Gemini da Google (1121) acabou de recuperar o primeiro lugar…

22 de novembro de 2024

OpenAI mira no Chrome com planos de desenvolver seu próprio navegador

A OpenAI está considerando desenvolver um navegador web que se integraria ao ChatGPT e aos…

22 de novembro de 2024

DeepMind dá um salto gigante na computação quântica com o AlphaQubit

O Google DeepMind acaba de apresentar o AlphaQubit, um sistema de inteligência artificial (IA) que…

21 de novembro de 2024

ChatGPT está mais perto de lançar sua IA visual

Um código recém-descoberto na última versão beta do ChatGPT sugere que a OpenAI pode estar…

21 de novembro de 2024

DeepSeek revela poderosa IA de raciocínio; veja

A empresa chinesa de pesquisa em inteligência artificial (IA), DeepSeek, acaba de lançar o R1-Lite-Preview,…

21 de novembro de 2024