Créditos da imagem: Curto News/Bing AI

Criminoso sexual é proibido de usar IA no Reino Unido; entenda

Um criminoso sexual condenado por fazer mais de 1.000 imagens indecentes de crianças foi proibido de usar qualquer “ferramenta de criação de inteligência artificial (IA)” pelos próximos cinco anos no que parece ser o primeiro caso do tipo.

PUBLICIDADE

Anthony Dover, 48 anos, recebeu a ordem – emitida por um tribunal do Reino Unido – de “não usar, visitar ou acessar” ferramentas de geração de inteligência artificial sem permissão prévia da polícia, como condição de uma ordem de prevenção de danos sexuais imposta em fevereiro.

A proibição o impede de usar ferramentas como geradores de texto para imagem, que podem criar imagens realistas com base em um comando escrito, e sites de “nudez”, usados para criar deepfakes explícitos.

Dover, que recebeu uma ordem comunitária e uma multa de £200, também foi explicitamente proibido de usar o software Stable Diffusion, que – segundo registros – teria sido explorado por pedófilos para criar material abusivo sexual infantil hiper-realista.

PUBLICIDADE

O caso é o mais recente de uma série de processos em que a geração de IA surgiu como uma questão e segue meses de advertências de instituições de caridade sobre a proliferação de imagens de abuso sexual geradas por IA.

Na semana passada, o governo anunciou a criação de um novo crime que torna ilegal fazer deepfakes sexualmente explícitos de maiores de 18 anos sem consentimento. Aqueles condenados enfrentam processo e uma multa ilimitada. Se a imagem for então compartilhada mais amplamente, os infratores podem ser presos.

Criar, possuir e compartilhar material artificial de abuso sexual infantil já era ilegal sob leis em vigor desde a década de 1990, que proíbem tanto fotografias reais quanto “pseudo” de menores de 18 anos. Em anos anteriores, a lei foi usada para processar pessoas por delitos envolvendo imagens realistas, como aquelas feitas com o uso do Photoshop.

PUBLICIDADE

Casos recentes sugerem que ela está sendo cada vez mais usada para lidar com a ameaça representada por conteúdo artificial sofisticado.

A Internet Watch Foundation (IWF) disse que as acusações foram um momento “marcante” que “deveria soar o alarme de que criminosos produzindo imagens de abuso sexual infantil geradas por IA são como fábricas de um homem só, capazes de produzir algumas das imagens mais chocantes”.

Susie Hargreaves, CEO da instituição, disse que embora as imagens de abuso sexual geradas por IA atualmente representem “uma proporção relativamente baixa” dos relatórios, eles estão vendo um “aumento lento, mas contínuo” nos casos, e que parte do material é “altamente realista”. “Esperamos que as acusações enviem uma mensagem clara para aqueles que produzem e distribuem esse conteúdo de que é ilegal”, disse ela.

PUBLICIDADE

A decisão de proibir um criminoso sexual adulto de usar ferramentas de geração de IA poderia estabelecer um precedente para o monitoramento futuro de pessoas condenadas por delitos de imagem indecente.

A Stability AI, empresa por trás do Stable Diffusion, disse que as preocupações com material de abuso infantil estão relacionadas a uma versão anterior do software, que foi lançada ao público por um de seus parceiros. A instituição afirmou que desde que assumiu a licença exclusiva em 2022, investiu em recursos para evitar o mau uso, incluindo “filtros para interceptar comandos e saídas inseguras”, e que proibiu qualquer uso de seus serviços para atividades ilegais.

Leia também:

Rolar para cima