A Internet Watch Foundation (IWF) disse ter encontrado quase 3 mil imagens de abuso sexual infantil feitas por inteligência artificial. A organização sediada no Reino Unido disse que imagens existentes de vítimas de abuso na vida real estavam sendo incorporadas em modelos de IA, que então produziam novas representações delas.
A tecnologia de IA também estava sendo usada para criar imagens de celebridades que foram “rejuvenescidas” e depois retratadas como crianças em cenários de abuso sexual. Outros exemplos de material de abuso sexual infantil incluem o uso de ferramentas de IA para “nudificar” fotos de crianças vestidas encontradas online.
“No início deste ano, alertamos que as imagens feitas por IA poderiam em breve tornar-se indistinguíveis das imagens reais de crianças que sofrem abuso sexual e que poderíamos começar a ver estas imagens se proliferarem em números muito maiores. Já ultrapassamos esse ponto”, disse Susie Hargreaves, diretora executiva da IWF. A organização disse que também viu evidências de imagens geradas por IA sendo vendidas online.
As descobertas da Internet Watch Foundation são resultado de uma investigação de um mês dentro de um fórum da dark web sobre abuso infantil. Foram analisadas mais de 11 mil imagens, com quase 3 mil delas violando a lei do Reino Unido ao retratar abuso sexual infantil.
Este post foi modificado pela última vez em %s = human-readable time difference 16:19
O Google DeepMind acaba de anunciar uma parceria estratégica com a Apptronik, uma empresa de…
Uma equipe de pesquisadores de 20 laboratórios diferentes acaba de apresentar o Genesis, um motor…
O Google acabou de lançar o que está chamando de um novo modelo de inteligência…
A GitHub, de propriedade da Microsoft, acaba de anunciar um nível gratuito de seu Copilot…
A OpenAI acaba de lançar uma nova maneira surpreendente de acessar o ChatGPT - através…
O Google DeepMind acaba de lançar o FACTS Grounding, um novo benchmark projetado para avaliar…