A plataforma está introduzindo uma nova ferramenta no Creator Studio que exigirá que os criadores divulguem quando o conteúdo que os espectadores poderiam confundir com uma pessoa, lugar ou evento real foi criado com mídia alterada ou sintética, incluindo IA generativa.
PUBLICIDADE
YouTube now requires creators to disclose when realistic content was made with AI https://t.co/HXCsXQpONr
— TechCrunch (@TechCrunch) March 18, 2024
As novas divulgações têm como objetivo evitar que os usuários sejam levados a acreditar que um vídeo criado sinteticamente é real, à medida que novas ferramentas generativas de IA tornam mais difícil diferenciar entre o que é real e o que é falso. O lançamento ocorre no momento em que especialistas alertam que a IA e os deepfakes representarão um risco notável durante as próximas eleições presidenciais dos EUA.
O anúncio ocorre no momento em que o YouTube anuncia em novembro que lançaria a atualização como parte de uma introdução mais ampla de novas políticas de inteligência artificial.
O YouTube diz que a nova política não exige que os criadores divulguem conteúdo claramente irreal ou animado, como alguém montando um unicórnio em um mundo fantástico. Também não exige que os criadores divulguem conteúdo que usou a tecnologia para assistência à produção, como geração de scripts ou legendas automáticas.
PUBLICIDADE
Em vez disso, o YouTube tem como alvo vídeos que usam a imagem de uma pessoa realista. Por exemplo, os criadores terão de divulgar quando alterarem digitalmente o conteúdo para “substituir o rosto de um indivíduo pelo de outro ou gerar sinteticamente a voz de uma pessoa para narrar um vídeo”, diz o YouTube.
Eles também terão que divulgar conteúdo que altere a filmagem de eventos ou lugares reais, como fazer parecer que um prédio real pegou fogo. Os criadores também terão que divulgar quando gerarem cenas realistas de grandes eventos fictícios, como um tornado se movendo em direção a uma cidade real.
Leia também: