Inteligência Artificial

Promotores dos EUA combatem uso de IA para abuso infantil

Publicado por
Isabella Caminoto

Promotores federais americanos estão intensificando a perseguição a suspeitos que usam inteligência artificial (IA) para manipular ou criar imagens de abuso sexual infantil. O temor é que a tecnologia provoque uma enxurrada de material ilícito.

O Departamento de Justiça processou dois suspeitos este ano. Eles teriam usado sistemas de IA generativa para criar imagens explícitas de crianças. “Há mais por vir”, disse James Silver, chefe da Seção de Crimes de Computador e Propriedade Intelectual do órgão.

A preocupação é a “normalização” desse tipo de conteúdo. “A IA facilita a geração dessas imagens, e quanto mais houver, mais normalizadas elas se tornam. É isso que queremos impedir”, disse Silver.

Promotores e defensores da segurança infantil alertam que a IA pode ser usada para sexualizar fotos comuns de crianças e dificultar a identificação de vítimas reais.

O Centro Nacional para Crianças Desaparecidas e Exploradas recebe cerca de 450 denúncias mensais relacionadas à IA generativa. Isso é uma fração dos 3 milhões de relatos mensais de exploração infantil online em geral.

Casos envolvendo imagens de abuso sexual geradas por IA podem ser legalmente complexos. Promotores podem recorrer a acusações de obscenidade quando as leis de pornografia infantil não se aplicam.

Steven Anderegg, engenheiro de software, foi acusado de usar o Stable Diffusion para gerar imagens de crianças e compartilhá-las com um menor de 15 anos. Ele se declarou inocente e alega violação de seus direitos constitucionais.

Outro caso envolve um soldado do Exército dos EUA que teria usado chatbots de IA para transformar fotos de crianças conhecidas em imagens de abuso sexual violento. Ele também se declarou inocente.

Especialistas apontam que a jurisprudência sobre obscenidade e imagens puramente geradas por IA é menos clara.

Defensores da causa também buscam impedir que sistemas de IA gerem material abusivo. Vários gigantes da tecnologia se comprometeram a evitar o uso de imagens de abuso infantil para treinar seus modelos e monitorar suas plataformas para impedir a criação e disseminação desse tipo de conteúdo.

“Não quero que isso seja visto como um problema futuro, porque já está acontecendo”, disse Rebecca Portnoff, vice-presidente de ciência de dados da Thorn. “Ainda há esperança de agirmos para prevenir que isso saia do controle.”

Leia também:

Este post foi modificado pela última vez em 17 de outubro de 2024 20:19

Isabella Caminoto

Advogada e mestranda em Direito Internacional, tenho a democracia e a liberdade como bandeiras irrenunciáveis. Sou apaixonada pelos animais e acredito que o bem-estar do nosso planeta deveria ser o destaque diário da pauta da nossa sociedade.

Posts recentes

IA como mediadora: Ferramenta promete reduzir polarização em debates

A inteligência artificial (IA) poderia ajudar a reduzir algumas das divisões mais contenciosas da guerra…

17 de outubro de 2024

OpenAI revela vieses residuais em respostas do ChatGPT

Um novo estudo da OpenAI investigou a presença de vieses na linguagem usada pelo ChatGPT,…

17 de outubro de 2024

Boston Dynamics e Toyota se unem para desenvolver humanoides de IA

A Boston Dynamics e o Toyota Research Institute anunciaram recentemente uma nova parceria para acelerar…

17 de outubro de 2024

Mistral AI lança dois novos modelos compactos de linguagem

A startup francesa de inteligência artificial (IA), Mistral AI acaba de lançar dois novos modelos…

17 de outubro de 2024

Nemotron da Nvidia supera modelos líderes de IA

A Nvidia lançou silenciosamente um novo LLM de código aberto, ajustado, chamado Llama-3.1-Nemotron-70B-Instruct, que está…

17 de outubro de 2024

Gigantes da tecnologia reprovados: IA falha em cumprir novas regras da UE

Alguns dos modelos de inteligência artificial (IA) mais proeminentes estão ficando aquém dos regulamentos europeus…

16 de outubro de 2024