Microsoft corrige falha que levou à criação de deepfakes pornográficos de Taylor Swift

Na semana passada, imagens falsas de nudez da cantora Taylor Swift, produzidas por inteligência artificial (IA), se espalharam rapidamente pelas redes sociais. Após denúncias apontarem uma brecha utilizada para a criação das imagens no Designer, da Microsoft, a empresa anunciou a correção do problema e realizou atualizações em suas políticas referentes ao uso de IA.

De acordo com o divulgado pelo 404 Media, usuários do 4chan e Telegram se aproveitaram de uma brecha na segurança do Designer para gerar alguns dos deepfakes de Taylor Swift e outras celebridades.

PUBLICIDADE

A Microsoft enviou um pronunciamento ao 404 Media: “Nosso Código de Conduta proíbe o uso de nossas ferramentas para a criação de conteúdo adulto ou íntimo não consensual, e quaisquer tentativas repetidas de produzir conteúdo que contrarie nossas políticas podem resultar na perda de acesso ao serviço.”

A empresa ainda disse que não foi possível comprovar se as imagens foram realmente criadas no Designer, mas reforçou a atuação de “grandes equipes no desenvolvimento de grades de proteção e outros sistemas de segurança alinhados aos nossos princípios de IA responsável, incluindo filtragem de conteúdo, monitoramento operacional e detecção de abuso para mitigar o uso indevido do sistema e ajudar a criar um ambiente mais seguro para os usuários.”

Leia também:

Rolar para cima