A Meta informou na quarta-feira (29) que encontrou conteúdo “provavelmente gerado por IA” usado de forma enganosa em suas plataformas Facebook e Instagram. Exemplos incluem comentários elogiando a ação de Israel na guerra de Gaza publicados abaixo de posts de organizações de notícias globais e legisladores dos EUA.
A rede social, em um relatório trimestral de segurança, disse que as contas se apresentavam como estudantes judeus, afro-americanos e outros cidadãos preocupados, direcionadas a públicos dos Estados Unidos e Canadá. A Meta atribuiu a campanha à empresa de marketing político STOIC, sediada em Tel Aviv.
A STOIC não respondeu imediatamente a um pedido da Reuters de comentário sobre as alegações.
Embora a Meta tenha encontrado fotos básicas de perfil geradas por inteligência artificial em operações de influência desde 2019, o relatório é o primeiro a revelar o uso de tecnologias de IA generativa mais sofisticadas, surgidas no final de 2022.
Pesquisadores temem que a IA generativa, que pode produzir texto, imagens e áudio semelhantes a humanos de forma rápida e barata, possa levar a campanhas de desinformação mais eficazes e influenciar eleições.
Em uma teleconferência, executivos de segurança da Meta disseram não acreditar que as novas tecnologias de IA tenham impedido sua capacidade de interromper redes de influência, que são tentativas coordenadas de disseminar mensagens.
Os executivos disseram que não viram imagens de políticos geradas por IA realistas o suficiente para serem confundidas com fotos autênticas.
O relatório destacou seis operações secretas de influência que a Meta interrompeu no primeiro trimestre.
Além da rede STOIC, a Meta fechou uma rede baseada no Irã focada no conflito Israel-Hamas, embora não tenha identificado nenhum uso de IA generativa nessa campanha.
A Meta e outras gigantes da tecnologia têm lutado para lidar com o possível uso indevido de novas tecnologias de IA, especialmente em eleições.
Pesquisadores encontraram exemplos de geradores de imagem de empresas como OpenAI e Microsoft produzindo fotos com desinformação relacionada à votação, apesar dessas empresas terem políticas contra esse tipo de conteúdo.
As empresas enfatizaram os “sistemas de rotulagem digital” para marcar o conteúdo gerado por IA no momento de sua criação, embora as ferramentas não funcionem em texto e os pesquisadores tenham dúvidas sobre sua eficácia.
Leia também:
Este post foi modificado pela última vez em %s = human-readable time difference 15:13
O Google DeepMind acaba de apresentar o AlphaQubit, um sistema de inteligência artificial (IA) que…
Um código recém-descoberto na última versão beta do ChatGPT sugere que a OpenAI pode estar…
A empresa chinesa de pesquisa em inteligência artificial (IA), DeepSeek, acaba de lançar o R1-Lite-Preview,…
A OpenAI e a parceira sem fins lucrativos Common Sense Media lançaram um curso de…
Brett Adcock, CEO da Figure, postou uma atualização sobre os robôs humanoides da empresa trabalhando…
A Microsoft acaba de apresentar uma suíte de novos agentes de inteligência artificial (IA) especializados…