Promotores federais americanos estão intensificando a perseguição a suspeitos que usam inteligência artificial (IA) para manipular ou criar imagens de abuso sexual infantil. O temor é que a tecnologia provoque uma enxurrada de material ilícito.
O Departamento de Justiça processou dois suspeitos este ano. Eles teriam usado sistemas de IA generativa para criar imagens explícitas de crianças. “Há mais por vir”, disse James Silver, chefe da Seção de Crimes de Computador e Propriedade Intelectual do órgão.
A preocupação é a “normalização” desse tipo de conteúdo. “A IA facilita a geração dessas imagens, e quanto mais houver, mais normalizadas elas se tornam. É isso que queremos impedir”, disse Silver.
Promotores e defensores da segurança infantil alertam que a IA pode ser usada para sexualizar fotos comuns de crianças e dificultar a identificação de vítimas reais.
O Centro Nacional para Crianças Desaparecidas e Exploradas recebe cerca de 450 denúncias mensais relacionadas à IA generativa. Isso é uma fração dos 3 milhões de relatos mensais de exploração infantil online em geral.
Casos envolvendo imagens de abuso sexual geradas por IA podem ser legalmente complexos. Promotores podem recorrer a acusações de obscenidade quando as leis de pornografia infantil não se aplicam.
Steven Anderegg, engenheiro de software, foi acusado de usar o Stable Diffusion para gerar imagens de crianças e compartilhá-las com um menor de 15 anos. Ele se declarou inocente e alega violação de seus direitos constitucionais.
Outro caso envolve um soldado do Exército dos EUA que teria usado chatbots de IA para transformar fotos de crianças conhecidas em imagens de abuso sexual violento. Ele também se declarou inocente.
Especialistas apontam que a jurisprudência sobre obscenidade e imagens puramente geradas por IA é menos clara.
Defensores da causa também buscam impedir que sistemas de IA gerem material abusivo. Vários gigantes da tecnologia se comprometeram a evitar o uso de imagens de abuso infantil para treinar seus modelos e monitorar suas plataformas para impedir a criação e disseminação desse tipo de conteúdo.
“Não quero que isso seja visto como um problema futuro, porque já está acontecendo”, disse Rebecca Portnoff, vice-presidente de ciência de dados da Thorn. “Ainda há esperança de agirmos para prevenir que isso saia do controle.”
Leia também:
Este post foi modificado pela última vez em %s = human-readable time difference 20:19
O Google DeepMind acaba de lançar o FACTS Grounding, um novo benchmark projetado para avaliar…
A Nvidia acaba de apresentar o Jetson Orin Nano Super Developer Kit, um supercomputador de…
A OpenAI acabou de lançar uma série de atualizações para desenvolvedores no 9º dia do…
A startup de inteligência artificial (IA) Higgsfield acabou de apresentar o ReelMagic, uma plataforma multiagente…
A OpenAI acaba de anunciar uma expansão significativa do seu recurso de pesquisa ChatGPT no…
O Google acaba de anunciar o lançamento do Veo 2, um modelo de geração de…