A tecnologia de IA também estava sendo usada para criar imagens de celebridades que foram “rejuvenescidas” e depois retratadas como crianças em cenários de abuso sexual. Outros exemplos de material de abuso sexual infantil incluem o uso de ferramentas de IA para “nudificar” fotos de crianças vestidas encontradas online.
PUBLICIDADE
“No início deste ano, alertamos que as imagens feitas por IA poderiam em breve tornar-se indistinguíveis das imagens reais de crianças que sofrem abuso sexual e que poderíamos começar a ver estas imagens se proliferarem em números muito maiores. Já ultrapassamos esse ponto”, disse Susie Hargreaves, diretora executiva da IWF. A organização disse que também viu evidências de imagens geradas por IA sendo vendidas online.
As descobertas da Internet Watch Foundation são resultado de uma investigação de um mês dentro de um fórum da dark web sobre abuso infantil. Foram analisadas mais de 11 mil imagens, com quase 3 mil delas violando a lei do Reino Unido ao retratar abuso sexual infantil.