O Stanford Internet Observatory encontrou mais de 3.200 imagens com suspeita de abuso sexual infantil no gigante banco de dados de IA LAION, um índice de imagens e legendas online que tem sido usado para treinar os principais geradores de imagens de inteligência artificial, como a Stable Diffusion.
PUBLICIDADE
O grupo de vigilância baseado na Universidade de Stanford trabalhou com o Centro Canadense de Proteção à Criança e outras instituições antiabuso para identificar o material ilegal e relatar os links das fotos originais às autoridades. Mais de 1.000 das imagens suspeitas foram confirmadas como material de abuso sexual infantil.
“Descobrimos que ter a posse de um conjunto de dados LAION-5B preenchido mesmo no final de 2023 implica a posse de milhares de imagens ilegais”, escreveram os investigadores.
A resposta foi imediata. Na véspera da divulgação do relatório na quarta-feira, o LAION disse que estava removendo temporariamente seus conjuntos de dados. LAION, que significa Rede Aberta de Inteligência Artificial em Grande Escala, sem fins lucrativos, disse em um comunicado que “tem uma política de tolerância zero para conteúdo ilegal e com muita cautela, retiramos os conjuntos de dados LAION para garantir que eles sejam seguro antes de republicá-los”.
PUBLICIDADE
AI image generators trained on pictures of child sexual abuse, study finds https://t.co/1i3x765voP
— Guardian Tech (@guardiantech) December 20, 2023
Embora as imagens representem apenas uma fração do índice LAION de cerca de 5,8 bilhões de imagens, o grupo de Stanford diz que provavelmente estão influenciando a capacidade das ferramentas de IA para gerar resultados prejudiciais e reforçando o abuso anterior de vítimas reais que aparecem múltiplas vezes.
A Stability AI disse na quarta-feira que hospeda apenas versões filtradas do Stable Diffusion e que “desde que assumiu o desenvolvimento exclusivo do Stable Diffusion, a Stability AI tomou medidas proativas para mitigar o risco de uso indevido”.
Leia também: