Créditos da imagem: AFP

Pornografia deepfake de Taylor Swift gera novos apelos por legislação nos EUA

A rápida disseminação online de imagens deepfake pornográficas de Taylor Swift renovou os apelos, inclusive de políticos dos EUA, para criminalizar a prática, na qual a inteligência artificial (IA) é usada para gerar imagens falsas, mas convincentes.

As imagens de Taylor Swift foram distribuídas nas redes sociais e vistas por milhões de usuários esta semana. Distribuída no aplicativo Telegram, uma das imagens da cantora – hospedada no X – foi vista 47 milhões de vezes antes de ser removida.

PUBLICIDADE

Yvette D Clarke, uma congressista democrata de Nova York, escreveu no X: “O que aconteceu com Taylor Swift não é novidade. Durante anos, as mulheres foram alvo de deepfakes sem o seu consentimento. E com os avanços na IA, criar deepfakes é mais fácil e barato. Este é um problema que ambos os lados do corredor e até mesmo os Swifties deveriam ser capazes de se unir para resolver.”

Alguns estados dos EUA têm sua própria legislação contra deepfakes, mas há uma pressão crescente para uma mudança na lei federal.

Em maio de 2023, o congressista democrata Joseph Morelle revelou a proposta da Lei de Prevenção de Deepfakes de Imagens Íntimas, que tornaria ilegal o compartilhamento de pornografia deepfake sem consentimento. 

PUBLICIDADE

Morelle disse que as imagens e vídeos “podem causar danos emocionais, financeiros e de reputação irrevogáveis ​​– e, infelizmente, as mulheres são afetadas de forma desproporcional”. A legislação proposta por Morelle ainda não se tornou lei.

Swift não falou publicamente sobre as imagens. 

Vídeos ou áudios deepfake convincentes têm sido usados ​​para imitar alguns homens de destaque, especialmente políticos como Donald Trump e Joe Biden, e artistas como Drake e The Weeknd. Em outubro de 2023, Tom Hanks disse a seus seguidores do Instagram para não serem atraídos por um anúncio falso de odontologia com sua imagem.

Mas a tecnologia é esmagadoramente dirigida às mulheres, e de uma forma sexualmente exploradora: um estudo de 2019 da DeepTrace Labs, citado na proposta de legislação dos EUA, descobriu que 96% do conteúdo de vídeo deepfake era material pornográfico sem consentimento.

PUBLICIDADE

Leia também:

Rolar para cima