Crianças em escolas britânicas estão usando a inteligência artificial (IA) para criar imagens indecentes de outras crianças, alertou um grupo de especialistas em abuso infantil e tecnologia.
Grupos de proteção pedem ações urgentes para ajudar os alunos a compreender os riscos de fazer imagens que constituam legalmente abuso sexual infantil.
Emma Hardy, diretora do UK Safer Internet Centre (UKSIC), disse que as imagens eram “terrivelmente” realistas. “A qualidade das imagens que vemos é comparável às fotos profissionais tiradas anualmente de crianças em escolas de todo o país”, completou.
“As crianças devem ser alertadas que isso pode se espalhar pela internet e acabar sendo visto por estranhos e predadores sexuais. O potencial de abuso desta tecnologia é assustador”, afirmou Hardy.
A UKSIC, uma organização de proteção infantil, disse que as escolas precisam agir urgentemente para implementar melhores sistemas de bloqueio contra material de abuso infantil.
Imagens de abuso sexual infantil são ilegais no Reino Unido – sejam elas geradas por IA ou fotográficas – e até mesmo desenhos animados ou outras representações menos realistas.
No mês passado, a Internet Watch Foundation alertou que as imagens de abuso sexual infantil geradas pela IA estavam “ameaçando sobrecarregar a Internet” , sendo muitas agora tão realistas que eram indistinguíveis de imagens reais – mesmo para analistas treinados.
Leia também:
Este post foi modificado pela última vez em %s = human-readable time difference 15:40
O Google DeepMind acaba de anunciar uma parceria estratégica com a Apptronik, uma empresa de…
Uma equipe de pesquisadores de 20 laboratórios diferentes acaba de apresentar o Genesis, um motor…
O Google acabou de lançar o que está chamando de um novo modelo de inteligência…
A GitHub, de propriedade da Microsoft, acaba de anunciar um nível gratuito de seu Copilot…
A OpenAI acaba de lançar uma nova maneira surpreendente de acessar o ChatGPT - através…
O Google DeepMind acaba de lançar o FACTS Grounding, um novo benchmark projetado para avaliar…