Com a explosão de popularidade da inteligência artificial generativa, as empresas, as pessoas e as relações se transformaram. Agora, novas problemáticas envolvendo IA já causam alerta nas autoridades. Na dark web, criminosos divulgam pornografia infantil com o auxílio de ferramentas geradoras de imagem por IA, dizem especialistas. Entenda.
De acordo com Thais Molina Pinheiro, especialista em Direito Penal e Digital, a popularização de ferramentas de inteligência artificial para geração de imagens se tornou um instrumento a mais para prática de crimes virtuais, incluindo pornografia infantil.
Em entrevista ao Newsverso, a advogada explicou que os criminosos se aproveitam de ferramentas open source para fazer suas próprias versões de IAs geradoras de imagens. Plataformas populares, como é o caso do Midjourney e DALL-E não permitem a emissão de prompts nocivos ou criminosos. No entanto, com conhecimento de programação e acesso aos códigos abertos das plataformas, as versões tóxicas dessas ferramentas se multiplicam pela dark web.
Para geração de imagens de crianças ou adolescentes em situação de sexo explícito ou pornografia, a especialista conta que os criminosos usam as ferramentas, muitas vezes, com imagens da web de pessoas reais para produzir novos contextos. Depois de prontas as imagens, elas são compartilhadas em fóruns na internet obscura, dentro de comunidades no Discord ou em sites de download pirata.
“Alguns acabam compartilhando ali esse perfil na internet, então você tem acesso no Twitter, na internet em geral, no Reddit você consegue acabar encontrando pessoas que são pedófilas e abertamente discutem isso. Tem muita gente também que acaba ficando por baixo dos panos, na escuridão web, que compartilha (as imagens) por meio, por exemplo, de torrent, que é muito mais anônimo, não tem o perfil”, explica a advogada.
Desde 2008 a simulação de criança ou adolescente em cena de sexo explícito ou pornografia, por qualquer forma de representação virtual, é crime no Brasil. Com pena de reclusão de um a três anos e multa.
Outro consultado pela reportagem, Leonardo Pantaleão, mestre em Direito e especialista em Processo Penal, fala sobre sobre as punições que cabem a esses criminosos: “É uma outra ferramenta, mas as punições são as mesmas, têm que ser bastante rigorosas e o Brasil já tem legislação para isso, independentemente da origem. Essa é mais uma tentativa, assim como quando surgiu a internet, do criminoso se colocar atrás de um escudo, de uma manta protetora, para dificultar a identificação”.
De acordo com a ONG que mapeia denúncias de crimes virtuais no Brasil, Safernet, desde o início do ano houve um aumento de 70% nas denúncias envolvendo imagens de abuso e exploração sexual infantil em comparação com o ano passado. Para a Thais Molina existe uma forte relação com o ‘boom’ das IAs generativas.
Em recente reportagem do The Washington Post, especialistas estadunidenses também reportaram a dimensão do problema. Para Yiota Souras, diretora do National Center for Missing and Exploited Children, que fiscaliza banco de dados usado por empresas para sinalizar e bloquear pornografia infantil, “mesmo quando essas imagens não retratam crianças reais, elas representam um dano social horrível”.
Para Thais Molina, isso passa pela regulação eficiente da inteligência artificial e pela fiscalização por parte das empresas de tecnologia. “Conversar com as empresas, principalmente com as big techs, para que elas auxiliem ali no combate, na identificação, com ferramentas também de inteligência artificial para fazer a filtragem e também para que as empresas que disponibilizam uma ferramenta de inteligência artificial não permitam esse tipo de produção de conteúdo ilícito”.
O Google já conta com uma ferramenta de varredura de conteúdo nocivo na web. No entanto, quando o conteúdo é compartilhado em fóruns escondidos ou na internet obscura, nada pode ser feito.
Nos termos de uso do Midjourney consta “nenhum conteúdo adulto ou sangue. Evite fazer conteúdo visualmente chocante ou perturbador. Bloquearemos algumas entradas de texto automaticamente”.
O DALL-E, desenvolvido pela OpenAI, é monitorado por humanos e tem as imagens produzidas rastreadas. Os códigos da plataforma, assim como do Midjourney, não são públicos.
O Stable Diffusion, da StabilityAI, plataforma de código aberto, que permite que outros desenvolvedores usem seus códigos em outros projetos, proíbe “Gerar conteúdo ou participar de qualquer compartilhamento de conteúdo que tenha qualquer risco ou possibilidade de explorar, prejudicar ou pôr em risco a saúde ou o bem-estar de crianças ou outros menores (“Crianças”), como imagens de crianças em trajes sexualizados, poses ou um contexto fetichista sexual, ou que identifique, direta ou indiretamente, supostas vítimas de exploração sexual infantil, ou com o objetivo de explorar, prejudicar ou tentar explorar ou prejudicar as crianças de qualquer maneira”.
Veja também:
Este post foi modificado pela última vez em %s = human-readable time difference 15:25
O Google DeepMind acaba de anunciar uma parceria estratégica com a Apptronik, uma empresa de…
Uma equipe de pesquisadores de 20 laboratórios diferentes acaba de apresentar o Genesis, um motor…
O Google acabou de lançar o que está chamando de um novo modelo de inteligência…
A GitHub, de propriedade da Microsoft, acaba de anunciar um nível gratuito de seu Copilot…
A OpenAI acaba de lançar uma nova maneira surpreendente de acessar o ChatGPT - através…
O Google DeepMind acaba de lançar o FACTS Grounding, um novo benchmark projetado para avaliar…