A maioria das maiores empresas de tecnologia do mundo, incluindo Amazon, Google e Microsoft, concordaram em enfrentar o que chamam de 'inteligência artificial (IA) enganosa' em eleições dos Estados Unidos.
Vinte empresas assinaram um acordo comprometendo-se a combater conteúdo enganoso para os eleitores. Elas afirmam que irão implantar tecnologia para detectar e neutralizar o material. Mas um especialista da indústria afirma que o pacto voluntário “fará pouco para impedir a postagem de conteúdo prejudicial”.
O Acordo Tecnológico para Combater o Uso Enganoso de IA nas Eleições de 2024 foi anunciado na Conferência de Segurança de Munique na sexta-feira (16). A questão ganhou destaque porque estima-se que até quatro bilhões de pessoas estarão votando este ano em países como EUA, Reino Unido e Índia.
Entre os compromissos do acordo estão o desenvolvimento de tecnologia para “mitigar riscos” relacionados ao conteúdo eleitoral enganoso gerado por inteligência artificial, e fornecer transparência ao público sobre as medidas tomadas pelas empresas.
Outras medidas incluem compartilhar as melhores práticas entre si e educar o público sobre como identificar quando podem estar vendo conteúdo manipulado.
Os signatários incluem plataformas de mídia social X – anteriormente Twitter – Snap, Adobe e Meta, proprietária do Facebook, Instagram e WhatsApp.
No entanto, o acordo tem algumas falhas, de acordo com o cientista da computação Dr. Deepak Padmanabhan, da Queen’s University Belfast, que foi co-autor de um artigo sobre eleições e IA. O cientista comentou em entrevista que era promissor ver as empresas reconhecerem a ampla gama de desafios apresentados pela IA.
Mas ele disse que elas precisavam tomar uma ação mais “proativa” em vez de esperar que o conteúdo fosse postado para então tentar removê-lo. Isso poderia significar que “conteúdo de IA mais realista, que pode ser mais prejudicial, pode permanecer na plataforma por mais tempo” em comparação com falsificações óbvias que são mais fáceis de detectar e remover, sugeriu ele.
Dr. Padmanabhan também disse que a utilidade do acordo foi comprometida porque faltava nuances na definição de conteúdo prejudicial. Ele deu o exemplo do político paquistanês Imran Khan, preso, usando IA para fazer discursos enquanto estava na prisão.
“Isso também deve ser removido?” ele perguntou.
Os signatários do acordo dizem que irão focar em conteúdo que “falsifica ou altera de maneira enganosa a aparência, voz ou ações” de figuras-chave em eleições. Também buscarão lidar com áudio, imagens ou vídeos que fornecem informações falsas aos eleitores sobre quando, onde e como podem votar.
“Temos a responsabilidade de garantir que essas ferramentas não se tornem armas nas eleições”, disse Brad Smith, presidente da Microsoft.
O Google e a Meta já delinearam suas políticas sobre imagens e vídeos gerados por IA em publicidade política, que exigem que os anunciantes sinalizem quando estão usando deepfakes ou conteúdo que foi manipulado por IA.
Leia também:
Este post foi modificado pela última vez em %s = human-readable time difference 16:25
O Google DeepMind acaba de anunciar uma parceria estratégica com a Apptronik, uma empresa de…
Uma equipe de pesquisadores de 20 laboratórios diferentes acaba de apresentar o Genesis, um motor…
O Google acabou de lançar o que está chamando de um novo modelo de inteligência…
A GitHub, de propriedade da Microsoft, acaba de anunciar um nível gratuito de seu Copilot…
A OpenAI acaba de lançar uma nova maneira surpreendente de acessar o ChatGPT - através…
O Google DeepMind acaba de lançar o FACTS Grounding, um novo benchmark projetado para avaliar…