Il CEO di una società pubblicitaria è bersaglio del deepfake; saperne di più

Il capo del più grande gruppo pubblicitario del mondo è stato bersaglio di un'elaborata frode deepfake che prevedeva un clone vocale artificiale. Mark Read, amministratore delegato di WPP dettagliato il tentativo di frode in una recente e-mail indirizzata alla dirigenza, avvertendo gli altri membri dell’azienda di prestare attenzione alle chiamate che affermano di provenire da dirigenti di alto rango.

PUBBLICITÀ

I truffatori hanno creato un account WhatsApp con un'immagine di Read disponibile al pubblico e lo hanno utilizzato per organizzare un incontro Microsoft Squadre che sembravano essere con lui e un altro dirigente senior del WPP. Durante l'incontro gli impostori hanno utilizzato un clone della voce del dirigente, nonché immagini dello stesso presenti su YouTube. I truffatori hanno impersonato Leggi dalla telecamera utilizzando la finestra di chat della riunione. La truffa, andata a buon fine, ha preso di mira un “capo di agenzia”, chiedendogli di avviare una nuova attività nel tentativo di sollecitare denaro e dati personali.

"Fortunatamente gli aggressori non hanno avuto successo", ha scritto Read nell'e-mail. “Dobbiamo tutti essere vigili sulle tecniche che vanno oltre le e-mail per trarre vantaggio da riunioni virtuali, intelligenza artificiale e deepfake”.

Un portavoce del WPP ha confermato in un comunicato che il tentativo di phishing non ha avuto successo: "Grazie alla vigilanza del nostro personale, compreso il dirigente in questione, l'incidente è stato evitato". WPP non ha risposto alle domande su quando è avvenuto l’attacco o su quali dirigenti diversi da Read fossero coinvolti.

PUBBLICITÀ

Precedentemente una preoccupazione legata alle molestie online, alla pornografia e alla disinformazione politica, il numero di attacchi deepfake nel mondo aziendale è salito alle stelle nell’ultimo anno. cloni vocali intelligenza artificiale (IA) Hanno truffato banche, truffato società finanziarie per milioni e messo in allerta i dipartimenti di sicurezza informatica.

Anche il tentativo di frode del WPP sembrava utilizzare l’intelligenza artificiale generativa per la clonazione vocale, ma includeva anche tecniche più semplici come l’utilizzo di un’immagine disponibile pubblicamente e l’utilizzo come foto del profilo di contatto. L’attacco è rappresentativo dei numerosi strumenti che i truffatori hanno ora a disposizione per imitare le comunicazioni aziendali legittime e impersonare dirigenti.

Leggi anche:

Lascia un commento

L'indirizzo email non verrà pubblicato. I campi obbligatori sono contrassegnati con *

scorrere verso l'alto