A Meta, dona do Facebook e Instagram, anunciou grandes mudanças em suas políticas para mídia criada e alterada digitalmente na sexta-feira (6), antes das eleições que testarão sua capacidade de policiar conteúdo enganoso gerado por tecnologias de inteligência artificial.
A gigante das redes sociais começará a aplicar etiquetas “Feito com IA” em maio a vídeos, imagens e áudios gerados por IA publicados no Facebook e Instagram, expandindo uma política que anteriormente abordava apenas uma pequena parte de vídeos editados. A vice-presidente de políticas de conteúdo, Monika Bickert, disse em um post no blog.
🇬🇧 Subscribe to the best newsletter about AI (in English 🇬🇧) 🇧🇷 Assine a melhor newsletter sobre IA (em português 🇧🇷)
Bickert disse que a Meta também aplicaria etiquetas separadas e mais proeminentes a mídia digitalmente alterada que representa um “risco particularmente alto de enganar materialmente o público sobre um assunto importante”, independentemente de o conteúdo ter sido criado usando IA ou outras ferramentas. A Meta começará a aplicar os rótulos de “alto risco” mais proeminentes imediatamente, disse um porta-voz.
A abordagem mudará o tratamento da empresa em relação ao conteúdo manipulado, passando de um foco na remoção de um conjunto limitado de postagens para manter o conteúdo online enquanto fornece aos espectadores informações sobre como ele foi feito.
A Meta anunciou anteriormente um esquema para detectar imagens feitas usando ferramentas de IA generativa de outras empresas por meio de marcadores invisíveis embutidos nos arquivos, mas não deu uma data de início na época.
Um porta-voz da empresa disse que a abordagem de rotulagem se aplicaria ao conteúdo postado no Facebook, Instagram e Threads. Seus outros serviços, incluindo WhatsApp e fones de realidade virtual Quest, são cobertos por regras diferentes.
As mudanças vêm meses antes da eleição presidencial dos EUA em novembro, que pesquisadores de tecnologia alertam que podem ser transformadas por tecnologias de IA generativa. As campanhas políticas já começaram a implantar ferramentas de IA em lugares como a Indonésia, ultrapassando os limites das diretrizes emitidas por fornecedores como a Meta e a líder de mercado de IA generativa OpenAI.
Em fevereiro, o conselho de supervisão da Meta considerou as regras existentes da empresa sobre mídia manipulada “incoerentes” após revisar um vídeo de Joe Biden postado no Facebook no ano passado que alterou imagens reais para sugerir erroneamente que o presidente dos EUA havia se comportado de maneira inadequada.
A filmagem foi autorizada a permanecer online, já que a política existente de “mídia manipulada” da Meta proíbe vídeos alterados de forma enganosa somente se forem produzidos por inteligência artificial ou se fizerem as pessoas parecerem dizer palavras que nunca disseram.
O conselho disse que a política também deveria se aplicar a conteúdo não-IA, que não é “necessariamente menos enganoso” do que o conteúdo gerado por IA, bem como a conteúdo somente de áudio e vídeos que mostram pessoas fazendo coisas que nunca disseram ou fizeram.
Leia também:
Este post foi modificado pela última vez em %s = human-readable time difference 15:05
O Google DeepMind acaba de anunciar uma parceria estratégica com a Apptronik, uma empresa de…
Uma equipe de pesquisadores de 20 laboratórios diferentes acaba de apresentar o Genesis, um motor…
O Google acabou de lançar o que está chamando de um novo modelo de inteligência…
A GitHub, de propriedade da Microsoft, acaba de anunciar um nível gratuito de seu Copilot…
A OpenAI acaba de lançar uma nova maneira surpreendente de acessar o ChatGPT - através…
O Google DeepMind acaba de lançar o FACTS Grounding, um novo benchmark projetado para avaliar…