Inteligência Artificial

Investigação encontra modelos de geração de imagens de IA treinados em abuso infantil

Escondidas na base dos populares geradores de imagens de inteligência artificial (IA) estão milhares de imagens de abuso sexual infantil, revelou uma nova pesquisa publicada na quarta-feira (20).

Publicado por
Isabella Caminoto

O Stanford Internet Observatory encontrou mais de 3.200 imagens com suspeita de abuso sexual infantil no gigante banco de dados de IA LAION, um índice de imagens e legendas online que tem sido usado para treinar os principais geradores de imagens de inteligência artificial, como a Stable Diffusion

O grupo de vigilância baseado na Universidade de Stanford trabalhou com o Centro Canadense de Proteção à Criança e outras instituições antiabuso para identificar o material ilegal e relatar os links das fotos originais às autoridades. Mais de 1.000 das imagens suspeitas foram confirmadas como material de abuso sexual infantil.

“Descobrimos que ter a posse de um conjunto de dados LAION-5B preenchido mesmo no final de 2023 implica a posse de milhares de imagens ilegais”, escreveram os investigadores.

A resposta foi imediata. Na véspera da divulgação do relatório na quarta-feira, o LAION disse que estava removendo temporariamente seus conjuntos de dados. LAION, que significa Rede Aberta de Inteligência Artificial em Grande Escala, sem fins lucrativos, disse em um comunicado que “tem uma política de tolerância zero para conteúdo ilegal e com muita cautela, retiramos os conjuntos de dados LAION para garantir que eles sejam seguro antes de republicá-los”.

Embora as imagens representem apenas uma fração do índice LAION de cerca de 5,8 bilhões de imagens, o grupo de Stanford diz que provavelmente estão influenciando a capacidade das ferramentas de IA para gerar resultados prejudiciais e reforçando o abuso anterior de vítimas reais que aparecem múltiplas vezes.

A Stability AI disse na quarta-feira que hospeda apenas versões filtradas do Stable Diffusion e que “desde que assumiu o desenvolvimento exclusivo do Stable Diffusion, a Stability AI tomou medidas proativas para mitigar o risco de uso indevido”.

Leia também:

Este post foi modificado pela última vez em %s = human-readable time difference 13:02

Isabella Caminoto

Advogada e mestranda em Direito Internacional, tenho a democracia e a liberdade como bandeiras irrenunciáveis. Sou apaixonada pelos animais e acredito que o bem-estar do nosso planeta deveria ser o destaque diário da pauta da nossa sociedade.

Posts recentes

Google se associa à Apptronik para desenvolver robôs humanoides

O Google DeepMind acaba de anunciar uma parceria estratégica com a Apptronik, uma empresa de…

20 de dezembro de 2024

Genesis: Um novo patamar para simulações físicas em IA

Uma equipe de pesquisadores de 20 laboratórios diferentes acaba de apresentar o Genesis, um motor…

20 de dezembro de 2024

Google lança seu próprio modelo de IA de “raciocínio”

O Google acabou de lançar o que está chamando de um novo modelo de inteligência…

19 de dezembro de 2024

GitHub Copilot agora é gratuito

A GitHub, de propriedade da Microsoft, acaba de anunciar um nível gratuito de seu Copilot…

19 de dezembro de 2024

ChatGPT ganha um novo número de telefone; veja

A OpenAI acaba de lançar uma nova maneira surpreendente de acessar o ChatGPT - através…

19 de dezembro de 2024

Google lança novo benchmark para testar a factualidade de LLMs

O Google DeepMind acaba de lançar o FACTS Grounding, um novo benchmark projetado para avaliar…

18 de dezembro de 2024