A inteligência artificial (IA) tem sido utilizada por criminosos na produção de vídeos de abuso sexual infantil – que podem aumentar em volume à medida que a tecnologia melhora, de acordo com uma entidade de vigilância de segurança.
A maioria desses casos vistos pela Internet Watch Foundation envolve a manipulação de material existente de abuso sexual infantil (CSAM) ou pornografia adulta, com o rosto de uma criança transplantado na filmagem. Um punhado de exemplos envolve vídeos totalmente feitos por IA, com duração de cerca de 20 segundos, disse a IWF.
A organização, que monitora CSAM em todo o mundo, disse estar preocupada que mais vídeos CSAM feitos por IA possam surgir à medida que as ferramentas por trás deles se tornem mais difundidas e fáceis de usar.
Dan Sexton, diretor de tecnologia da IWF, disse que se o uso de ferramentas de vídeo por IA seguir a mesma tendência das imagens estáticas feitas por IA, que aumentaram em volume à medida que a tecnologia melhorou e se tornou mais amplamente disponível, mais vídeos CSAM poderiam surgir.
“Eu diria de forma tentadora que, se seguir as mesmas tendências, então veremos mais vídeos”, disse ele, acrescentando que os vídeos futuros também poderiam ser de “maior qualidade e realismo”.
Os analistas da IWF disseram que a maioria dos vídeos vistos pela organização em um fórum da dark web usado por pedófilos eram deepfakes parciais, onde modelos de IA disponíveis gratuitamente online são usados para impor o rosto de uma criança, incluindo imagens de vítimas conhecidas de CSAM, em vídeos existentes de CSAM ou pornografia adulta. A IWF disse que encontrou nove desses vídeos.
Um número menor de vídeos totalmente feitos por IA era de qualidade mais básica, segundo os analistas, mas disseram que esse seria o “pior” que o vídeo totalmente sintético seria.
A IWF acrescentou que as imagens CSAM feitas por IA se tornaram mais fotorrealistas este ano em comparação com 2023, quando começaram a ver esse tipo de conteúdo pela primeira vez.
Seu estudo instantâneo deste ano de um único fórum da dark web – que anonimiza os usuários e os protege de rastreamento – encontrou 12.000 novas imagens geradas por IA postadas ao longo de um período de um mês. Nove em cada 10 dessas imagens eram tão realistas que poderiam ser processadas sob as mesmas leis do Reino Unido que cobrem CSAM real, disse a IWF.
A organização, que opera uma linha direta para o público denunciar abusos, disse que encontrou exemplos de imagens CSAM feitas por IA sendo vendidas online por criminosos em vez de CSAM não feitos por IA.
A CEO da IWF, Susie Hargreaves, disse: “Sem controles adequados, as ferramentas de IA generativa fornecem um playground para predadores online realizarem suas fantasias mais perversas e doentias. Mesmo agora, a IWF está começando a ver mais desse tipo de material sendo compartilhado e vendido em sites comerciais de abuso sexual infantil na internet.”
A IWF está pressionando por mudanças na lei que criminalizem a criação de guias para gerar CSAM feitos por IA, bem como a criação de modelos de IA “afinados” que possam produzir esse material.
Leia também:
Este post foi modificado pela última vez em %s = human-readable time difference 15:51
Mustafa Suleyman, CEO de inteligência artificial (IA) da Microsoft, acabou de revelar que a empresa…
Cientistas do Instituto de Pesquisa Arc acabaram de apresentar o Evo, um modelo de inteligência…
Novos processos judiciais de Elon Musk contra a OpenAI expuseram emails internos dos primeiros anos…
Um novo estudo de pesquisadores da Universidade de Pittsburgh acabou de revelar que a inteligência…
O TikTok acaba de lançar o Symphony Creative Studio, uma plataforma de geração de vídeo…
A OpenAI acabou de lançar uma atualização para seu aplicativo de desktop que permite ao…