Inteligência Artificial

Promotores dos EUA combatem uso de IA para abuso infantil

Publicado por
Isabella Caminoto

Promotores federais americanos estão intensificando a perseguição a suspeitos que usam inteligência artificial (IA) para manipular ou criar imagens de abuso sexual infantil. O temor é que a tecnologia provoque uma enxurrada de material ilícito.

O Departamento de Justiça processou dois suspeitos este ano. Eles teriam usado sistemas de IA generativa para criar imagens explícitas de crianças. “Há mais por vir”, disse James Silver, chefe da Seção de Crimes de Computador e Propriedade Intelectual do órgão.

A preocupação é a “normalização” desse tipo de conteúdo. “A IA facilita a geração dessas imagens, e quanto mais houver, mais normalizadas elas se tornam. É isso que queremos impedir”, disse Silver.

Promotores e defensores da segurança infantil alertam que a IA pode ser usada para sexualizar fotos comuns de crianças e dificultar a identificação de vítimas reais.

O Centro Nacional para Crianças Desaparecidas e Exploradas recebe cerca de 450 denúncias mensais relacionadas à IA generativa. Isso é uma fração dos 3 milhões de relatos mensais de exploração infantil online em geral.

Casos envolvendo imagens de abuso sexual geradas por IA podem ser legalmente complexos. Promotores podem recorrer a acusações de obscenidade quando as leis de pornografia infantil não se aplicam.

Steven Anderegg, engenheiro de software, foi acusado de usar o Stable Diffusion para gerar imagens de crianças e compartilhá-las com um menor de 15 anos. Ele se declarou inocente e alega violação de seus direitos constitucionais.

Outro caso envolve um soldado do Exército dos EUA que teria usado chatbots de IA para transformar fotos de crianças conhecidas em imagens de abuso sexual violento. Ele também se declarou inocente.

Especialistas apontam que a jurisprudência sobre obscenidade e imagens puramente geradas por IA é menos clara.

Defensores da causa também buscam impedir que sistemas de IA gerem material abusivo. Vários gigantes da tecnologia se comprometeram a evitar o uso de imagens de abuso infantil para treinar seus modelos e monitorar suas plataformas para impedir a criação e disseminação desse tipo de conteúdo.

“Não quero que isso seja visto como um problema futuro, porque já está acontecendo”, disse Rebecca Portnoff, vice-presidente de ciência de dados da Thorn. “Ainda há esperança de agirmos para prevenir que isso saia do controle.”

Leia também:

Este post foi modificado pela última vez em %s = human-readable time difference 20:19

Isabella Caminoto

Advogada e mestranda em Direito Internacional, tenho a democracia e a liberdade como bandeiras irrenunciáveis. Sou apaixonada pelos animais e acredito que o bem-estar do nosso planeta deveria ser o destaque diário da pauta da nossa sociedade.

Posts recentes

Google lança novo benchmark para testar a factualidade de LLMs

O Google DeepMind acaba de lançar o FACTS Grounding, um novo benchmark projetado para avaliar…

18 de dezembro de 2024

Nvidia lança supercomputador de IA compacto e barato

A Nvidia acaba de apresentar o Jetson Orin Nano Super Developer Kit, um supercomputador de…

18 de dezembro de 2024

OpenAI libera o1 para API e novas ferramentas para desenvolvedores

A OpenAI acabou de lançar uma série de atualizações para desenvolvedores no 9º dia do…

18 de dezembro de 2024

ReelMagic: IA revoluciona a produção de vídeos longos a partir de texto

A startup de inteligência artificial (IA) Higgsfield acabou de apresentar o ReelMagic, uma plataforma multiagente…

17 de dezembro de 2024

ChatGPT Search agora é gratuito para todos; veja

A OpenAI acaba de anunciar uma expansão significativa do seu recurso de pesquisa ChatGPT no…

17 de dezembro de 2024

Google revoluciona a criação de vídeos e imagens com Veo 2 e Imagen 3

O Google acaba de anunciar o lançamento do Veo 2, um modelo de geração de…

17 de dezembro de 2024