O YouTube anunciou uma nova política que proíbe conteúdo que “simule de maneira realista” relatos de vítimas de crimes sobre como morreram ou a violência sofrida. A mudança visa combater a disseminação de deepfakes, vídeos que usam inteligência artificial (IA) para criar imagens ou áudios falsos.
A atualização da política do YouTube é uma resposta a um subgênero de conteúdo relacionado a crimes reais (“true crime”), no qual deepfakes são usados para criar vídeos com relatos de vítimas sobre a violência sofrida por elas.
Alguns vídeos trazem vozes geradas por inteligência artificial (IA) semelhantes a de crianças. Famílias de vítimas retratadas nos vídeos, chamaram o conteúdo de “nojento”.
A violação da nova política da plataforma resultará na remoção do conteúdo do canal e restrições temporárias nas atividades do usuário. As penalidades aumentam com repetidas violações, podendo levar à exclusão do canal.
A atualização da política do YouTube é mais uma medida tomada por plataformas de mídia social para combater a disseminação de deepfakes. O TikTok, por exemplo, agora exige que os criadores rotulem conteúdo gerado por IA como tal. O YouTube também anunciou uma política rigorosa em torno de “clones” de voz de músicos feitos com IA.
A proibição de deepfakes de vítimas de crimes em vídeos de true crime é uma medida importante adotada pelo Youtube para proteger a privacidade e a dignidade das vítimas.
Leia também:
Este post foi modificado pela última vez em %s = human-readable time difference 14:56
O Google DeepMind acaba de anunciar uma parceria estratégica com a Apptronik, uma empresa de…
Uma equipe de pesquisadores de 20 laboratórios diferentes acaba de apresentar o Genesis, um motor…
O Google acabou de lançar o que está chamando de um novo modelo de inteligência…
A GitHub, de propriedade da Microsoft, acaba de anunciar um nível gratuito de seu Copilot…
A OpenAI acaba de lançar uma nova maneira surpreendente de acessar o ChatGPT - através…
O Google DeepMind acaba de lançar o FACTS Grounding, um novo benchmark projetado para avaliar…