Inteligência Artificial

Investigação encontra modelos de geração de imagens de IA treinados em abuso infantil

Escondidas na base dos populares geradores de imagens de inteligência artificial (IA) estão milhares de imagens de abuso sexual infantil, revelou uma nova pesquisa publicada na quarta-feira (20).

Publicado por
Isabella Caminoto

O Stanford Internet Observatory encontrou mais de 3.200 imagens com suspeita de abuso sexual infantil no gigante banco de dados de IA LAION, um índice de imagens e legendas online que tem sido usado para treinar os principais geradores de imagens de inteligência artificial, como a Stable Diffusion

O grupo de vigilância baseado na Universidade de Stanford trabalhou com o Centro Canadense de Proteção à Criança e outras instituições antiabuso para identificar o material ilegal e relatar os links das fotos originais às autoridades. Mais de 1.000 das imagens suspeitas foram confirmadas como material de abuso sexual infantil.

“Descobrimos que ter a posse de um conjunto de dados LAION-5B preenchido mesmo no final de 2023 implica a posse de milhares de imagens ilegais”, escreveram os investigadores.

A resposta foi imediata. Na véspera da divulgação do relatório na quarta-feira, o LAION disse que estava removendo temporariamente seus conjuntos de dados. LAION, que significa Rede Aberta de Inteligência Artificial em Grande Escala, sem fins lucrativos, disse em um comunicado que “tem uma política de tolerância zero para conteúdo ilegal e com muita cautela, retiramos os conjuntos de dados LAION para garantir que eles sejam seguro antes de republicá-los”.

Embora as imagens representem apenas uma fração do índice LAION de cerca de 5,8 bilhões de imagens, o grupo de Stanford diz que provavelmente estão influenciando a capacidade das ferramentas de IA para gerar resultados prejudiciais e reforçando o abuso anterior de vítimas reais que aparecem múltiplas vezes.

A Stability AI disse na quarta-feira que hospeda apenas versões filtradas do Stable Diffusion e que “desde que assumiu o desenvolvimento exclusivo do Stable Diffusion, a Stability AI tomou medidas proativas para mitigar o risco de uso indevido”.

Leia também:

Este post foi modificado pela última vez em %s = human-readable time difference 13:02

Isabella Caminoto

Advogada e mestranda em Direito Internacional, tenho a democracia e a liberdade como bandeiras irrenunciáveis. Sou apaixonada pelos animais e acredito que o bem-estar do nosso planeta deveria ser o destaque diário da pauta da nossa sociedade.

Posts recentes

DeepMind dá um salto gigante na computação quântica com o AlphaQubit

O Google DeepMind acaba de apresentar o AlphaQubit, um sistema de inteligência artificial (IA) que…

21 de novembro de 2024

ChatGPT está mais perto de lançar sua IA visual

Um código recém-descoberto na última versão beta do ChatGPT sugere que a OpenAI pode estar…

21 de novembro de 2024

DeepSeek revela poderosa IA de raciocínio; veja

A empresa chinesa de pesquisa em inteligência artificial (IA), DeepSeek, acaba de lançar o R1-Lite-Preview,…

21 de novembro de 2024

OpenAI lança curso gratuito de IA para professores

A OpenAI e a parceira sem fins lucrativos Common Sense Media lançaram um curso de…

20 de novembro de 2024

Robôs da Figure transformam produção da BMW; saiba como

Brett Adcock, CEO da Figure, postou uma atualização sobre os robôs humanoides da empresa trabalhando…

20 de novembro de 2024

Microsoft revela agentes de IA especializados e ferramentas de automação

A Microsoft acaba de apresentar uma suíte de novos agentes de inteligência artificial (IA) especializados…

20 de novembro de 2024