Inteligência Artificial

Promotores dos EUA combatem uso de IA para abuso infantil

Publicado por
Isabella Caminoto

Promotores federais americanos estão intensificando a perseguição a suspeitos que usam inteligência artificial (IA) para manipular ou criar imagens de abuso sexual infantil. O temor é que a tecnologia provoque uma enxurrada de material ilícito.

O Departamento de Justiça processou dois suspeitos este ano. Eles teriam usado sistemas de IA generativa para criar imagens explícitas de crianças. “Há mais por vir”, disse James Silver, chefe da Seção de Crimes de Computador e Propriedade Intelectual do órgão.

A preocupação é a “normalização” desse tipo de conteúdo. “A IA facilita a geração dessas imagens, e quanto mais houver, mais normalizadas elas se tornam. É isso que queremos impedir”, disse Silver.

Promotores e defensores da segurança infantil alertam que a IA pode ser usada para sexualizar fotos comuns de crianças e dificultar a identificação de vítimas reais.

O Centro Nacional para Crianças Desaparecidas e Exploradas recebe cerca de 450 denúncias mensais relacionadas à IA generativa. Isso é uma fração dos 3 milhões de relatos mensais de exploração infantil online em geral.

Casos envolvendo imagens de abuso sexual geradas por IA podem ser legalmente complexos. Promotores podem recorrer a acusações de obscenidade quando as leis de pornografia infantil não se aplicam.

Steven Anderegg, engenheiro de software, foi acusado de usar o Stable Diffusion para gerar imagens de crianças e compartilhá-las com um menor de 15 anos. Ele se declarou inocente e alega violação de seus direitos constitucionais.

Outro caso envolve um soldado do Exército dos EUA que teria usado chatbots de IA para transformar fotos de crianças conhecidas em imagens de abuso sexual violento. Ele também se declarou inocente.

Especialistas apontam que a jurisprudência sobre obscenidade e imagens puramente geradas por IA é menos clara.

Defensores da causa também buscam impedir que sistemas de IA gerem material abusivo. Vários gigantes da tecnologia se comprometeram a evitar o uso de imagens de abuso infantil para treinar seus modelos e monitorar suas plataformas para impedir a criação e disseminação desse tipo de conteúdo.

“Não quero que isso seja visto como um problema futuro, porque já está acontecendo”, disse Rebecca Portnoff, vice-presidente de ciência de dados da Thorn. “Ainda há esperança de agirmos para prevenir que isso saia do controle.”

Leia também:

Este post foi modificado pela última vez em %s = human-readable time difference 20:19

Isabella Caminoto

Advogada e mestranda em Direito Internacional, tenho a democracia e a liberdade como bandeiras irrenunciáveis. Sou apaixonada pelos animais e acredito que o bem-estar do nosso planeta deveria ser o destaque diário da pauta da nossa sociedade.

Posts recentes

OpenAI apresenta roteiro de IA para os EUA

A OpenAI acaba de apresentar um plano abrangente para a infraestrutura de inteligência artificial (IA))…

14 de novembro de 2024

Agentes de pesquisa de IA projetam novas proteínas para combater a COVID-19

Pesquisadores de Stanford acabaram de apresentar o Virtual Lab, uma plataforma de pesquisa de inteligência…

14 de novembro de 2024

O ‘Operator’ da OpenAI está chegando

A OpenAI está planejando lançar o 'Operator' em janeiro, uma nova ferramenta de inteligência artificial…

14 de novembro de 2024

Meta dá o primeiro passo para monetizar o Threads com anúncios

A Meta Platforms planeja introduzir anúncios em seu aplicativo de mídia social Threads no início…

13 de novembro de 2024

Nous Research potencializa modelos de IA com o Reasoning API

A Nous Research acaba de apresentar o Forge Reasoning API Beta, um sistema que aprimora…

13 de novembro de 2024

Apple revoluciona a casa inteligente com novo hub central de IA

A Apple está se preparando para lançar um novo display inteligente doméstico de parede, posicionando…

13 de novembro de 2024