A Meta informou na quarta-feira (29) que encontrou conteúdo “provavelmente gerado por IA” usado de forma enganosa em suas plataformas Facebook e Instagram. Exemplos incluem comentários elogiando a ação de Israel na guerra de Gaza publicados abaixo de posts de organizações de notícias globais e legisladores dos EUA.
A rede social, em um relatório trimestral de segurança, disse que as contas se apresentavam como estudantes judeus, afro-americanos e outros cidadãos preocupados, direcionadas a públicos dos Estados Unidos e Canadá. A Meta atribuiu a campanha à empresa de marketing político STOIC, sediada em Tel Aviv.
A STOIC não respondeu imediatamente a um pedido da Reuters de comentário sobre as alegações.
Embora a Meta tenha encontrado fotos básicas de perfil geradas por inteligência artificial em operações de influência desde 2019, o relatório é o primeiro a revelar o uso de tecnologias de IA generativa mais sofisticadas, surgidas no final de 2022.
Pesquisadores temem que a IA generativa, que pode produzir texto, imagens e áudio semelhantes a humanos de forma rápida e barata, possa levar a campanhas de desinformação mais eficazes e influenciar eleições.
Em uma teleconferência, executivos de segurança da Meta disseram não acreditar que as novas tecnologias de IA tenham impedido sua capacidade de interromper redes de influência, que são tentativas coordenadas de disseminar mensagens.
Os executivos disseram que não viram imagens de políticos geradas por IA realistas o suficiente para serem confundidas com fotos autênticas.
O relatório destacou seis operações secretas de influência que a Meta interrompeu no primeiro trimestre.
Além da rede STOIC, a Meta fechou uma rede baseada no Irã focada no conflito Israel-Hamas, embora não tenha identificado nenhum uso de IA generativa nessa campanha.
A Meta e outras gigantes da tecnologia têm lutado para lidar com o possível uso indevido de novas tecnologias de IA, especialmente em eleições.
Pesquisadores encontraram exemplos de geradores de imagem de empresas como OpenAI e Microsoft produzindo fotos com desinformação relacionada à votação, apesar dessas empresas terem políticas contra esse tipo de conteúdo.
As empresas enfatizaram os “sistemas de rotulagem digital” para marcar o conteúdo gerado por IA no momento de sua criação, embora as ferramentas não funcionem em texto e os pesquisadores tenham dúvidas sobre sua eficácia.
Leia também:
Este post foi modificado pela última vez em 29 de maio de 2024 15:13
Cansado de perder prints importantes na galeria do seu celular? O Google pode ter a…
Até a última sexta-feira (28), o aplicativo ChatGPT para macOS recém-lançado pela OpenAI apresentava um…
A Perplexity lançou uma grande atualização em sua ferramenta de inteligência artificial (IA) de busca…
A Easy-Peasy.AI é uma plataforma de inteligência artificial que oferece uma variedade de ferramentas voltadas…
O financiamento de capital de risco nos EUA disparou para US$ 55,6 bilhões no segundo…
A Magic - uma startup dos EUA que desenvolve modelos de inteligência artificial (IA) para…