Créditos da imagem: Curto News/Bing Image Creator

IA está atrapalhando esforços para capturar predadores sexuais; saiba o motivo

O volume de imagens sexualmente explícitas de crianças geradas por predadores usando inteligência artificial (IA) está sobrecarregando a capacidade das autoridades de identificar e resgatar vítimas reais, alertam especialistas em segurança infantil.

PUBLICIDADE

Promotores e grupos de segurança infantil – que trabalham para combater crimes contra crianças – dizem que as imagens geradas por IA se tornaram tão realistas que, em alguns casos, é difícil determinar se crianças reais foram submetidas a abusos reais para sua produção. Um único modelo de IA pode gerar dezenas de milhares de novas imagens em pouco tempo, e esse conteúdo começou a inundar tanto a dark web quanto a internet mainstream.

“Estamos começando a ver relatos de imagens que são de uma criança real, mas foram geradas por IA, e essa criança não foi abusada sexualmente. Mas agora o rosto dela está em uma criança que foi abusada”, disse Kristina Korobov, advogada sênior do Zero Abuse Project, uma ONG de segurança infantil com sede em Minnesota. “Às vezes, reconhecemos a roupa de cama ou o fundo em um vídeo ou imagem, o perpetrador ou a série de onde vem, mas agora há o rosto de outra criança colocado sobre isso.”

Já existem dezenas de milhões de relatórios feitos a cada ano sobre material de abuso sexual infantil (CSAM) real criado e compartilhado online, que grupos de segurança e autoridades lutam para investigar.

PUBLICIDADE

“Já estamos nos afogando nesse material”, disse um promotor do Departamento de Justiça, que falou sob condição de anonimato porque não estava autorizado a falar publicamente. “Do ponto de vista da aplicação da lei, os crimes contra crianças são uma das áreas com menos recursos, e haverá uma explosão de conteúdo gerado por IA.”

No ano passado, o Centro Nacional para Crianças Desaparecidas e Exploradas (NCMEC) recebeu relatos de predadores usando IA de várias maneiras, como inserir prompts de texto para gerar imagens de abuso infantil, alterar arquivos previamente carregados para torná-los sexualmente explícitos e abusivos, e carregar CSAM conhecido e gerar novas imagens com base nessas imagens. Em alguns relatos, os agressores usaram chatbots para instruí-los sobre como encontrar crianças para abuso sexual ou para machucá-las.

Especialistas e promotores estão preocupados com os agressores tentando evadir a detecção usando IA generativa para alterar imagens de uma vítima infantil de abuso sexual.

PUBLICIDADE

“Quando acusamos casos no sistema federal, a IA não muda o que podemos processar, mas há muitos estados onde é necessário provar que é uma criança real. Discutir sobre a legitimidade das imagens causará problemas nos julgamentos. Se eu fosse um advogado de defesa, é exatamente isso que eu argumentaria”, disse o promotor do DoJ.

A posse de representações de abuso sexual infantil é criminalizada pela lei federal dos EUA, e várias prisões foram feitas nos EUA este ano de supostos perpetradores possuindo CSAM identificado como gerado por IA. Na maioria dos estados, no entanto, não existem leis que proíbam a posse de material sexualmente explícito de menores gerado por IA. O ato de criar as imagens em primeiro lugar não é coberto pelas leis existentes.

Em março, no entanto, a legislatura do estado de Washington aprovou um projeto de lei que proíbe a posse de CSAM gerado por IA e a divulgação consciente de imagens íntimas geradas por IA de outras pessoas. Em abril, um projeto de lei bipartidário destinado a criminalizar a produção de CSAM gerado por IA foi introduzido no Congresso, endossado pela Associação Nacional de Procuradores Gerais (NAAG).

PUBLICIDADE

Especialistas em segurança infantil alertam que o influxo de conteúdo de IA drenará os recursos da CyberTipline do NCMEC, que atua como um centro de denúncias de abuso infantil de todo o mundo. A organização encaminha esses relatórios para agências de aplicação da lei para investigação, após determinar sua localização geográfica, status de prioridade e se as vítimas já são conhecidas.

“A polícia agora tem um volume maior de conteúdo para lidar. E como eles sabem se esta é uma criança real precisando ser resgatada? Você não sabe. É um problema enorme”, disse Jacques Marcoux, diretor de pesquisa e análise do Centro Canadense de Proteção à Criança.

Imagens conhecidas de abuso sexual infantil podem ser identificadas pelas impressões digitais digitais das imagens, conhecidas como valores de hash. O NCMEC mantém um banco de dados com mais de 5 milhões de valores de hash que podem ser comparados com imagens, uma ferramenta crucial para a aplicação da lei.

PUBLICIDADE

Quando uma imagem conhecida de abuso sexual infantil é carregada, as empresas de tecnologia que executam software para monitorar essa atividade têm a capacidade de interceptá-la e bloqueá-la com base em seu valor de hash e relatar o usuário às autoridades.

Material que não possui um valor de hash conhecido, como conteúdo recém-criado, é irreconhecível para este tipo de software de varredura. Qualquer edição ou alteração em uma imagem usando IA também altera seu valor de hash.

“O emparelhamento de hash é a linha de frente de defesa”, disse Marcoux. “Com a IA, cada imagem gerada é considerada uma imagem nova e tem um valor de hash diferente. Isso erode a eficiência da linha de frente de defesa existente. Pode colapsar o sistema de emparelhamento de hash.”

Especialistas em segurança infantil traçam a escalada no CSAM gerado por IA até o final de 2022, coincidindo com o lançamento do ChatGPT pela OpenAI e a introdução da IA generativa ao público. No início daquele ano, o banco de dados LAION-5B foi lançado, um catálogo de código aberto com mais de 5 bilhões de imagens que qualquer pessoa pode usar para treinar modelos de IA.

Imagens de abuso sexual infantil que haviam sido detectadas anteriormente estão incluídas no banco de dados, o que significava que modelos de IA treinados naquele banco de dados poderiam produzir CSAM, descobriram pesquisadores de Stanford no final de 2023. Especialistas em segurança infantil destacaram que crianças foram prejudicadas durante o processo de produção da maioria, senão de todo, o CSAM criado usando IA.

“Toda vez que uma imagem de CSAM é alimentada em uma máquina de IA, ela aprende uma nova habilidade”, disse Korobov do Zero Abuse Project.

Quando usuários carregam CSAM conhecido em suas ferramentas de imagem, a OpenAI revisa e relata isso ao NCMEC, disse um porta-voz da empresa.

“Fizemos um esforço significativo para minimizar o potencial de nossos modelos gerarem conteúdo que prejudique crianças”, disse o porta-voz.

Em 2023, o NCMEC recebeu 36,2 milhões de relatos de abuso infantil online, um aumento de 12% em relação ao ano anterior. A maioria das dicas recebidas estava relacionada à circulação de fotos e vídeos reais de crianças abusadas sexualmente. No entanto, também recebeu 4.700 relatos de imagens ou vídeos da exploração sexual de crianças feitos por IA generativa.

O NCMEC acusou as empresas de IA de não tentarem ativamente prevenir ou detectar a produção de CSAM. Apenas cinco plataformas de IA generativa enviaram relatórios à organização no ano passado. Mais de 70% dos relatos de CSAM gerado por IA vieram de plataformas de mídia social, que foram usadas para compartilhar o material, em vez das empresas de IA.

“Existem inúmeros sites e aplicativos que podem ser acessados para criar esse tipo de conteúdo, incluindo modelos de código aberto, que não estão se envolvendo com a CyberTipline e não estão empregando outras medidas de segurança, tanto quanto sabemos”, disse Fallon McNulty, diretor da CyberTipline do NCMEC.

Considerando que a IA permite que predadores criem milhares de novas imagens de CSAM com pouco tempo e esforço mínimo, especialistas em segurança infantil antecipam um aumento da carga sobre seus recursos para tentar combater a exploração infantil. O NCMEC disse que antecipa que a IA impulsionará um aumento nos relatos para sua CyberTipline.

Leia também:

Rolar para cima