Inteligência Artificial

Investigação encontra modelos de geração de imagens de IA treinados em abuso infantil

Escondidas na base dos populares geradores de imagens de inteligência artificial (IA) estão milhares de imagens de abuso sexual infantil, revelou uma nova pesquisa publicada na quarta-feira (20).

Publicado por
Isabella Caminoto

O Stanford Internet Observatory encontrou mais de 3.200 imagens com suspeita de abuso sexual infantil no gigante banco de dados de IA LAION, um índice de imagens e legendas online que tem sido usado para treinar os principais geradores de imagens de inteligência artificial, como a Stable Diffusion

O grupo de vigilância baseado na Universidade de Stanford trabalhou com o Centro Canadense de Proteção à Criança e outras instituições antiabuso para identificar o material ilegal e relatar os links das fotos originais às autoridades. Mais de 1.000 das imagens suspeitas foram confirmadas como material de abuso sexual infantil.

“Descobrimos que ter a posse de um conjunto de dados LAION-5B preenchido mesmo no final de 2023 implica a posse de milhares de imagens ilegais”, escreveram os investigadores.

A resposta foi imediata. Na véspera da divulgação do relatório na quarta-feira, o LAION disse que estava removendo temporariamente seus conjuntos de dados. LAION, que significa Rede Aberta de Inteligência Artificial em Grande Escala, sem fins lucrativos, disse em um comunicado que “tem uma política de tolerância zero para conteúdo ilegal e com muita cautela, retiramos os conjuntos de dados LAION para garantir que eles sejam seguro antes de republicá-los”.

Embora as imagens representem apenas uma fração do índice LAION de cerca de 5,8 bilhões de imagens, o grupo de Stanford diz que provavelmente estão influenciando a capacidade das ferramentas de IA para gerar resultados prejudiciais e reforçando o abuso anterior de vítimas reais que aparecem múltiplas vezes.

A Stability AI disse na quarta-feira que hospeda apenas versões filtradas do Stable Diffusion e que “desde que assumiu o desenvolvimento exclusivo do Stable Diffusion, a Stability AI tomou medidas proativas para mitigar o risco de uso indevido”.

Leia também:

Este post foi modificado pela última vez em 21 de dezembro de 2023 13:02

Isabella Caminoto

Advogada e mestranda em Direito Internacional, tenho a democracia e a liberdade como bandeiras irrenunciáveis. Sou apaixonada pelos animais e acredito que o bem-estar do nosso planeta deveria ser o destaque diário da pauta da nossa sociedade.

Posts recentes

Superinteligência Artificial (ASI): A evolução do pensamento humano em IA

A Superinteligência Artificial (ASI) é um conceito hipotético que se refere a um sistema de…

25 de junho de 2024

OpenAI adquire startup de compartilhamento de tela; saiba mais

A OpenAI acaba de realizar uma aquisição estratégica (acqui-hire) da Multi (anteriormente Remotion), uma startup…

25 de junho de 2024

Coach: Orientação profissional personalizada com IA

A plataforma Coach é uma ferramenta de desenvolvimento de carreira impulsionada por IA, criada pela…

25 de junho de 2024

Diplomata russo revela avanços nucleares para a Era da IA, mas pede diálogo para evitar caos

O principal diplomata russo para o controle de armas disse nesta terça-feira (25) que a…

25 de junho de 2024

Stability AI com novo CEO e aporte financeiro tenta superar turbulências

A Stability AI, startup de IA generativa com problemas financeiros, anunciou nesta terça-feira (25) a…

25 de junho de 2024

OpenAI restringe API: empresas chinesas de IA oferecem alternativas

As empresas chinesas de inteligência artificial (IA) estão se movendo rapidamente para atrair usuários da…

25 de junho de 2024