O Conselho de Supervisão da Meta está analisando a forma como a empresa lida com duas imagens sexualmente explícitas de celebridades femininas geradas por inteligência artificial (IA) – que circularam em seus serviços Facebook e Instagram, disse o conselho na terça-feira (16).
PUBLICIDADE
🇬🇧 Subscribe to the best newsletter about AI (in English 🇬🇧) 🇧🇷 Assine a melhor newsletter sobre IA (em português 🇧🇷)
O Conselho – que é financiado pela gigante da mídia social – mas opera de forma independente dela, usará os dois exemplos para avaliar a eficácia geral das políticas e práticas de fiscalização da Meta em torno de falsificações pornográficas criadas com inteligência artificial, disse em um post no blog.
Os avanços na tecnologia de IA tornaram imagens, clipes de áudio e vídeos fabricados praticamente indistinguíveis de conteúdo real criado por humanos, resultando na proliferação de falsificações sexuais online, principalmente retratando mulheres e meninas.
Alguns executivos da indústria apelaram a uma legislação que criminalize a criação de “falsificações profundas” prejudiciais e exija que as empresas de tecnologia evitem esse tipo de utilização dos seus produtos.
PUBLICIDADE
De acordo com as descrições dos casos do Conselho de Supervisão, um deles envolve uma imagem gerada por IA de uma mulher nua semelhante a uma figura pública da Índia, publicada por uma conta no Instagram que apenas partilha imagens de mulheres indianas geradas por IA.
A outra imagem, disse o Conselho, apareceu em um grupo do Facebook para compartilhar criações de inteligência artificial e apresentava uma representação gerada por IA de uma mulher nua semelhante a “uma figura pública americana” com um homem apalpando seu seio.
A Meta removeu a imagem que retratava a mulher americana por violar sua política de intimidação e assédio, que proíbe “photoshops ou desenhos depreciativos e sexualizados”, mas inicialmente deixou de lado aquela que mostrava a mulher indiana e só reverteu o curso depois que o conselho a selecionou para revisão.
PUBLICIDADE
Leia também: