Promotores federais americanos estão intensificando a perseguição a suspeitos que usam inteligência artificial (IA) para manipular ou criar imagens de abuso sexual infantil. O temor é que a tecnologia provoque uma enxurrada de material ilícito.
PUBLICIDADE
O Departamento de Justiça processou dois suspeitos este ano. Eles teriam usado sistemas de IA generativa para criar imagens explícitas de crianças. “Há mais por vir”, disse James Silver, chefe da Seção de Crimes de Computador e Propriedade Intelectual do órgão.
A preocupação é a “normalização” desse tipo de conteúdo. “A IA facilita a geração dessas imagens, e quanto mais houver, mais normalizadas elas se tornam. É isso que queremos impedir”, disse Silver.
Promotores e defensores da segurança infantil alertam que a IA pode ser usada para sexualizar fotos comuns de crianças e dificultar a identificação de vítimas reais.
PUBLICIDADE
O Centro Nacional para Crianças Desaparecidas e Exploradas recebe cerca de 450 denúncias mensais relacionadas à IA generativa. Isso é uma fração dos 3 milhões de relatos mensais de exploração infantil online em geral.
Casos envolvendo imagens de abuso sexual geradas por IA podem ser legalmente complexos. Promotores podem recorrer a acusações de obscenidade quando as leis de pornografia infantil não se aplicam.
Steven Anderegg, engenheiro de software, foi acusado de usar o Stable Diffusion para gerar imagens de crianças e compartilhá-las com um menor de 15 anos. Ele se declarou inocente e alega violação de seus direitos constitucionais.
PUBLICIDADE
Outro caso envolve um soldado do Exército dos EUA que teria usado chatbots de IA para transformar fotos de crianças conhecidas em imagens de abuso sexual violento. Ele também se declarou inocente.
Especialistas apontam que a jurisprudência sobre obscenidade e imagens puramente geradas por IA é menos clara.
Defensores da causa também buscam impedir que sistemas de IA gerem material abusivo. Vários gigantes da tecnologia se comprometeram a evitar o uso de imagens de abuso infantil para treinar seus modelos e monitorar suas plataformas para impedir a criação e disseminação desse tipo de conteúdo.
PUBLICIDADE
“Não quero que isso seja visto como um problema futuro, porque já está acontecendo”, disse Rebecca Portnoff, vice-presidente de ciência de dados da Thorn. “Ainda há esperança de agirmos para prevenir que isso saia do controle.”
Leia também: