A Internet Watch Foundation (IWF) disse ter encontrado quase 3 mil imagens de abuso sexual infantil feitas por inteligência artificial. A organização sediada no Reino Unido disse que imagens existentes de vítimas de abuso na vida real estavam sendo incorporadas em modelos de IA, que então produziam novas representações delas.
A tecnologia de IA também estava sendo usada para criar imagens de celebridades que foram “rejuvenescidas” e depois retratadas como crianças em cenários de abuso sexual. Outros exemplos de material de abuso sexual infantil incluem o uso de ferramentas de IA para “nudificar” fotos de crianças vestidas encontradas online.
“No início deste ano, alertamos que as imagens feitas por IA poderiam em breve tornar-se indistinguíveis das imagens reais de crianças que sofrem abuso sexual e que poderíamos começar a ver estas imagens se proliferarem em números muito maiores. Já ultrapassamos esse ponto”, disse Susie Hargreaves, diretora executiva da IWF. A organização disse que também viu evidências de imagens geradas por IA sendo vendidas online.
As descobertas da Internet Watch Foundation são resultado de uma investigação de um mês dentro de um fórum da dark web sobre abuso infantil. Foram analisadas mais de 11 mil imagens, com quase 3 mil delas violando a lei do Reino Unido ao retratar abuso sexual infantil.
Este post foi modificado pela última vez em %s = human-readable time difference 16:19
O TikTok acaba de lançar o Symphony Creative Studio, uma plataforma de geração de vídeo…
A OpenAI acabou de lançar uma atualização para seu aplicativo de desktop que permite ao…
A OpenAI acaba de apresentar um plano abrangente para a infraestrutura de inteligência artificial (IA))…
Pesquisadores de Stanford acabaram de apresentar o Virtual Lab, uma plataforma de pesquisa de inteligência…
A OpenAI está planejando lançar o 'Operator' em janeiro, uma nova ferramenta de inteligência artificial…
A Meta Platforms planeja introduzir anúncios em seu aplicativo de mídia social Threads no início…