Inteligência Artificial

CEO de empresa de publicidade é alvo de deepfake; saiba mais

Publicado por
Vinicius Siqueira

O chefe do maior grupo de publicidade do mundo foi alvo de uma elaborada fraude de deepfake que envolveu um clone de voz artificial. O CEO da WPP, Mark Read, detalhou a tentativa de fraude em um e-mail recente para a liderança, alertando outros na empresa para ficarem atentos a chamadas que afirmam ser de executivos de alto escalão.

Os fraudadores criaram uma conta no WhatsApp com uma imagem publicamente disponível de Read e a usaram para configurar uma reunião no Microsoft Teams que parecia ser com ele e outro executivo sênior da WPP. Durante a reunião, os impostores usaram um clone de voz do executivo, bem como imagens deles no YouTube. Os golpistas se passaram por Read fora da câmera usando a janela de chat da reunião. A fraude, que foi malsucedida, visou um “líder da agência”, pedindo-lhe para criar um novo negócio na tentativa de solicitar dinheiro e detalhes pessoais.

“Felizmente, os atacantes não tiveram sucesso”, escreveu Read no e-mail. “Todos nós precisamos estar vigilantes em relação às técnicas que vão além dos e-mails para se aproveitar de reuniões virtuais, IA e deepfakes.”

Um porta-voz da WPP confirmou que a tentativa de phishing não teve sucesso em um comunicado: “Graças à vigilância de nossas pessoas, incluindo o executivo em questão, o incidente foi impedido.” A WPP não respondeu às perguntas sobre quando o ataque ocorreu ou quais executivos, além de Read, estavam envolvidos.

Anteriormente, principalmente uma preocupação relacionada ao assédio online, pornografia e desinformação política, o número de ataques de deepfake no mundo corporativo disparou no último ano. Clones de voz de inteligência artificial (IA) enganaram bancos, enganaram empresas financeiras em milhões e colocaram os departamentos de segurança cibernética em alerta.

A tentativa de fraude na WPP também parecia usar IA generativa para clonagem de voz, mas também incluiu técnicas mais simples, como usar uma imagem publicamente disponível e usá-la como foto de perfil de contato. O ataque é representativo das muitas ferramentas que os golpistas agora têm à disposição para imitar comunicações corporativas legítimas e imitar executivos.

Leia também:

Este post foi modificado pela última vez em %s = human-readable time difference 15:12

Vinicius Siqueira

Posts recentes

DeepMind dá um salto gigante na computação quântica com o AlphaQubit

O Google DeepMind acaba de apresentar o AlphaQubit, um sistema de inteligência artificial (IA) que…

21 de novembro de 2024

ChatGPT está mais perto de lançar sua IA visual

Um código recém-descoberto na última versão beta do ChatGPT sugere que a OpenAI pode estar…

21 de novembro de 2024

DeepSeek revela poderosa IA de raciocínio; veja

A empresa chinesa de pesquisa em inteligência artificial (IA), DeepSeek, acaba de lançar o R1-Lite-Preview,…

21 de novembro de 2024

OpenAI lança curso gratuito de IA para professores

A OpenAI e a parceira sem fins lucrativos Common Sense Media lançaram um curso de…

20 de novembro de 2024

Robôs da Figure transformam produção da BMW; saiba como

Brett Adcock, CEO da Figure, postou uma atualização sobre os robôs humanoides da empresa trabalhando…

20 de novembro de 2024

Microsoft revela agentes de IA especializados e ferramentas de automação

A Microsoft acaba de apresentar uma suíte de novos agentes de inteligência artificial (IA) especializados…

20 de novembro de 2024