O chefe do maior grupo de publicidade do mundo foi alvo de uma elaborada fraude de deepfake que envolveu um clone de voz artificial. O CEO da WPP, Mark Read, detalhou a tentativa de fraude em um e-mail recente para a liderança, alertando outros na empresa para ficarem atentos a chamadas que afirmam ser de executivos de alto escalão.
PUBLICIDADE
Os fraudadores criaram uma conta no WhatsApp com uma imagem publicamente disponível de Read e a usaram para configurar uma reunião no Microsoft Teams que parecia ser com ele e outro executivo sênior da WPP. Durante a reunião, os impostores usaram um clone de voz do executivo, bem como imagens deles no YouTube. Os golpistas se passaram por Read fora da câmera usando a janela de chat da reunião. A fraude, que foi malsucedida, visou um “líder da agência”, pedindo-lhe para criar um novo negócio na tentativa de solicitar dinheiro e detalhes pessoais.
“Felizmente, os atacantes não tiveram sucesso”, escreveu Read no e-mail. “Todos nós precisamos estar vigilantes em relação às técnicas que vão além dos e-mails para se aproveitar de reuniões virtuais, IA e deepfakes.”
🇬🇧 Subscribe to the best newsletter about AI (in English 🇬🇧) 🇧🇷 Assine a melhor newsletter sobre IA (em português 🇧🇷)
Um porta-voz da WPP confirmou que a tentativa de phishing não teve sucesso em um comunicado: “Graças à vigilância de nossas pessoas, incluindo o executivo em questão, o incidente foi impedido.” A WPP não respondeu às perguntas sobre quando o ataque ocorreu ou quais executivos, além de Read, estavam envolvidos.
PUBLICIDADE
Anteriormente, principalmente uma preocupação relacionada ao assédio online, pornografia e desinformação política, o número de ataques de deepfake no mundo corporativo disparou no último ano. Clones de voz de inteligência artificial (IA) enganaram bancos, enganaram empresas financeiras em milhões e colocaram os departamentos de segurança cibernética em alerta.
A tentativa de fraude na WPP também parecia usar IA generativa para clonagem de voz, mas também incluiu técnicas mais simples, como usar uma imagem publicamente disponível e usá-la como foto de perfil de contato. O ataque é representativo das muitas ferramentas que os golpistas agora têm à disposição para imitar comunicações corporativas legítimas e imitar executivos.
Leia também: