Inteligência Artificial

CEO de empresa de publicidade é alvo de deepfake; saiba mais

Publicado por
Vinicius Siqueira

O chefe do maior grupo de publicidade do mundo foi alvo de uma elaborada fraude de deepfake que envolveu um clone de voz artificial. O CEO da WPP, Mark Read, detalhou a tentativa de fraude em um e-mail recente para a liderança, alertando outros na empresa para ficarem atentos a chamadas que afirmam ser de executivos de alto escalão.

Os fraudadores criaram uma conta no WhatsApp com uma imagem publicamente disponível de Read e a usaram para configurar uma reunião no Microsoft Teams que parecia ser com ele e outro executivo sênior da WPP. Durante a reunião, os impostores usaram um clone de voz do executivo, bem como imagens deles no YouTube. Os golpistas se passaram por Read fora da câmera usando a janela de chat da reunião. A fraude, que foi malsucedida, visou um “líder da agência”, pedindo-lhe para criar um novo negócio na tentativa de solicitar dinheiro e detalhes pessoais.

“Felizmente, os atacantes não tiveram sucesso”, escreveu Read no e-mail. “Todos nós precisamos estar vigilantes em relação às técnicas que vão além dos e-mails para se aproveitar de reuniões virtuais, IA e deepfakes.”

Um porta-voz da WPP confirmou que a tentativa de phishing não teve sucesso em um comunicado: “Graças à vigilância de nossas pessoas, incluindo o executivo em questão, o incidente foi impedido.” A WPP não respondeu às perguntas sobre quando o ataque ocorreu ou quais executivos, além de Read, estavam envolvidos.

Anteriormente, principalmente uma preocupação relacionada ao assédio online, pornografia e desinformação política, o número de ataques de deepfake no mundo corporativo disparou no último ano. Clones de voz de inteligência artificial (IA) enganaram bancos, enganaram empresas financeiras em milhões e colocaram os departamentos de segurança cibernética em alerta.

A tentativa de fraude na WPP também parecia usar IA generativa para clonagem de voz, mas também incluiu técnicas mais simples, como usar uma imagem publicamente disponível e usá-la como foto de perfil de contato. O ataque é representativo das muitas ferramentas que os golpistas agora têm à disposição para imitar comunicações corporativas legítimas e imitar executivos.

Leia também:

Este post foi modificado pela última vez em %s = human-readable time difference 15:12

Vinicius Siqueira

Posts recentes

Google se associa à Apptronik para desenvolver robôs humanoides

O Google DeepMind acaba de anunciar uma parceria estratégica com a Apptronik, uma empresa de…

20 de dezembro de 2024

Genesis: Um novo patamar para simulações físicas em IA

Uma equipe de pesquisadores de 20 laboratórios diferentes acaba de apresentar o Genesis, um motor…

20 de dezembro de 2024

Google lança seu próprio modelo de IA de “raciocínio”

O Google acabou de lançar o que está chamando de um novo modelo de inteligência…

19 de dezembro de 2024

GitHub Copilot agora é gratuito

A GitHub, de propriedade da Microsoft, acaba de anunciar um nível gratuito de seu Copilot…

19 de dezembro de 2024

ChatGPT ganha um novo número de telefone; veja

A OpenAI acaba de lançar uma nova maneira surpreendente de acessar o ChatGPT - através…

19 de dezembro de 2024

Google lança novo benchmark para testar a factualidade de LLMs

O Google DeepMind acaba de lançar o FACTS Grounding, um novo benchmark projetado para avaliar…

18 de dezembro de 2024