Inteligência Artificial

Meta identifica redes usando conteúdo enganoso possivelmente gerado por IA

Publicado por
Isabella Caminoto

A Meta informou na quarta-feira (29) que encontrou conteúdo “provavelmente gerado por IA” usado de forma enganosa em suas plataformas Facebook e Instagram. Exemplos incluem comentários elogiando a ação de Israel na guerra de Gaza publicados abaixo de posts de organizações de notícias globais e legisladores dos EUA.

A rede social, em um relatório trimestral de segurança, disse que as contas se apresentavam como estudantes judeus, afro-americanos e outros cidadãos preocupados, direcionadas a públicos dos Estados Unidos e Canadá. A Meta atribuiu a campanha à empresa de marketing político STOIC, sediada em Tel Aviv.

A STOIC não respondeu imediatamente a um pedido da Reuters de comentário sobre as alegações.

Por que isso é importante

Embora a Meta tenha encontrado fotos básicas de perfil geradas por inteligência artificial em operações de influência desde 2019, o relatório é o primeiro a revelar o uso de tecnologias de IA generativa mais sofisticadas, surgidas no final de 2022.

Pesquisadores temem que a IA generativa, que pode produzir texto, imagens e áudio semelhantes a humanos de forma rápida e barata, possa levar a campanhas de desinformação mais eficazes e influenciar eleições.

Em uma teleconferência, executivos de segurança da Meta disseram não acreditar que as novas tecnologias de IA tenham impedido sua capacidade de interromper redes de influência, que são tentativas coordenadas de disseminar mensagens.

Os executivos disseram que não viram imagens de políticos geradas por IA realistas o suficiente para serem confundidas com fotos autênticas.

Números

O relatório destacou seis operações secretas de influência que a Meta interrompeu no primeiro trimestre.

Além da rede STOIC, a Meta fechou uma rede baseada no Irã focada no conflito Israel-Hamas, embora não tenha identificado nenhum uso de IA generativa nessa campanha.

Contexto

A Meta e outras gigantes da tecnologia têm lutado para lidar com o possível uso indevido de novas tecnologias de IA, especialmente em eleições.

Pesquisadores encontraram exemplos de geradores de imagem de empresas como OpenAI e Microsoft produzindo fotos com desinformação relacionada à votação, apesar dessas empresas terem políticas contra esse tipo de conteúdo.

As empresas enfatizaram os “sistemas de rotulagem digital” para marcar o conteúdo gerado por IA no momento de sua criação, embora as ferramentas não funcionem em texto e os pesquisadores tenham dúvidas sobre sua eficácia.

Leia também:

Este post foi modificado pela última vez em 29 de maio de 2024 15:13

Isabella Caminoto

Advogada e mestranda em Direito Internacional, tenho a democracia e a liberdade como bandeiras irrenunciáveis. Sou apaixonada pelos animais e acredito que o bem-estar do nosso planeta deveria ser o destaque diário da pauta da nossa sociedade.

Posts recentes

Adeus prints perdidos! IA do Google organiza capturas de tela no Pixel 9

Cansado de perder prints importantes na galeria do seu celular? O Google pode ter a…

3 de julho de 2024

Falha de segurança no app ChatGPT para Mac coloca conversas em risco; entenda

Até a última sexta-feira (28), o aplicativo ChatGPT para macOS recém-lançado pela OpenAI apresentava um…

3 de julho de 2024

Perplexity aprimora IA ‘Pro Search’ para melhor desempenho em matemática e pesquisa

A Perplexity lançou uma grande atualização em sua ferramenta de inteligência artificial (IA) de busca…

3 de julho de 2024

Easy-Peasy.AI: Reúna todas as ferramentas de IA em um só lugar

A Easy-Peasy.AI é uma plataforma de inteligência artificial que oferece uma variedade de ferramentas voltadas…

3 de julho de 2024

IA eleva capital de risco dos EUA ao nível mais alto em dois anos; entenda

O financiamento de capital de risco nos EUA disparou para US$ 55,6 bilhões no segundo…

3 de julho de 2024

Startup Magic busca avaliação de US$ 1,5 bilhão em financiamento

A Magic - uma startup dos EUA que desenvolve modelos de inteligência artificial (IA) para…

3 de julho de 2024