Meta identifica redes usando conteúdo enganoso possivelmente gerado por IA

A Meta informou na quarta-feira (29) que encontrou conteúdo “provavelmente gerado por IA” usado de forma enganosa em suas plataformas Facebook e Instagram. Exemplos incluem comentários elogiando a ação de Israel na guerra de Gaza publicados abaixo de posts de organizações de notícias globais e legisladores dos EUA.

PUBLICIDADE

A rede social, em um relatório trimestral de segurança, disse que as contas se apresentavam como estudantes judeus, afro-americanos e outros cidadãos preocupados, direcionadas a públicos dos Estados Unidos e Canadá. A Meta atribuiu a campanha à empresa de marketing político STOIC, sediada em Tel Aviv.

A STOIC não respondeu imediatamente a um pedido da Reuters de comentário sobre as alegações.

Por que isso é importante

Embora a Meta tenha encontrado fotos básicas de perfil geradas por inteligência artificial em operações de influência desde 2019, o relatório é o primeiro a revelar o uso de tecnologias de IA generativa mais sofisticadas, surgidas no final de 2022.

PUBLICIDADE

Pesquisadores temem que a IA generativa, que pode produzir texto, imagens e áudio semelhantes a humanos de forma rápida e barata, possa levar a campanhas de desinformação mais eficazes e influenciar eleições.

Em uma teleconferência, executivos de segurança da Meta disseram não acreditar que as novas tecnologias de IA tenham impedido sua capacidade de interromper redes de influência, que são tentativas coordenadas de disseminar mensagens.

Os executivos disseram que não viram imagens de políticos geradas por IA realistas o suficiente para serem confundidas com fotos autênticas.

PUBLICIDADE

Números

O relatório destacou seis operações secretas de influência que a Meta interrompeu no primeiro trimestre.

Além da rede STOIC, a Meta fechou uma rede baseada no Irã focada no conflito Israel-Hamas, embora não tenha identificado nenhum uso de IA generativa nessa campanha.

Contexto

A Meta e outras gigantes da tecnologia têm lutado para lidar com o possível uso indevido de novas tecnologias de IA, especialmente em eleições.

PUBLICIDADE

Pesquisadores encontraram exemplos de geradores de imagem de empresas como OpenAI e Microsoft produzindo fotos com desinformação relacionada à votação, apesar dessas empresas terem políticas contra esse tipo de conteúdo.

As empresas enfatizaram os “sistemas de rotulagem digital” para marcar o conteúdo gerado por IA no momento de sua criação, embora as ferramentas não funcionem em texto e os pesquisadores tenham dúvidas sobre sua eficácia.

Leia também:

Rolar para cima