A Meta informou na quarta-feira (29) que encontrou conteúdo “provavelmente gerado por IA” usado de forma enganosa em suas plataformas Facebook e Instagram. Exemplos incluem comentários elogiando a ação de Israel na guerra de Gaza publicados abaixo de posts de organizações de notícias globais e legisladores dos EUA.
A rede social, em um relatório trimestral de segurança, disse que as contas se apresentavam como estudantes judeus, afro-americanos e outros cidadãos preocupados, direcionadas a públicos dos Estados Unidos e Canadá. A Meta atribuiu a campanha à empresa de marketing político STOIC, sediada em Tel Aviv.
A STOIC não respondeu imediatamente a um pedido da Reuters de comentário sobre as alegações.
Embora a Meta tenha encontrado fotos básicas de perfil geradas por inteligência artificial em operações de influência desde 2019, o relatório é o primeiro a revelar o uso de tecnologias de IA generativa mais sofisticadas, surgidas no final de 2022.
Pesquisadores temem que a IA generativa, que pode produzir texto, imagens e áudio semelhantes a humanos de forma rápida e barata, possa levar a campanhas de desinformação mais eficazes e influenciar eleições.
Em uma teleconferência, executivos de segurança da Meta disseram não acreditar que as novas tecnologias de IA tenham impedido sua capacidade de interromper redes de influência, que são tentativas coordenadas de disseminar mensagens.
Os executivos disseram que não viram imagens de políticos geradas por IA realistas o suficiente para serem confundidas com fotos autênticas.
O relatório destacou seis operações secretas de influência que a Meta interrompeu no primeiro trimestre.
Além da rede STOIC, a Meta fechou uma rede baseada no Irã focada no conflito Israel-Hamas, embora não tenha identificado nenhum uso de IA generativa nessa campanha.
A Meta e outras gigantes da tecnologia têm lutado para lidar com o possível uso indevido de novas tecnologias de IA, especialmente em eleições.
Pesquisadores encontraram exemplos de geradores de imagem de empresas como OpenAI e Microsoft produzindo fotos com desinformação relacionada à votação, apesar dessas empresas terem políticas contra esse tipo de conteúdo.
As empresas enfatizaram os “sistemas de rotulagem digital” para marcar o conteúdo gerado por IA no momento de sua criação, embora as ferramentas não funcionem em texto e os pesquisadores tenham dúvidas sobre sua eficácia.
Leia também:
Este post foi modificado pela última vez em %s = human-readable time difference 15:13
O Google DeepMind acaba de anunciar uma parceria estratégica com a Apptronik, uma empresa de…
Uma equipe de pesquisadores de 20 laboratórios diferentes acaba de apresentar o Genesis, um motor…
O Google acabou de lançar o que está chamando de um novo modelo de inteligência…
A GitHub, de propriedade da Microsoft, acaba de anunciar um nível gratuito de seu Copilot…
A OpenAI acaba de lançar uma nova maneira surpreendente de acessar o ChatGPT - através…
O Google DeepMind acaba de lançar o FACTS Grounding, um novo benchmark projetado para avaliar…