Golpes com deepfake: sua voz pode ser clonada e usada contra você

Golpistas estão usando a inteligência artificial (IA) para transformar seus vídeos de redes sociais em armas. Com apenas alguns segundos de áudio, eles podem clonar sua voz e realizar ligações altamente convincentes para seus entes queridos. A intenção? Extorquir dinheiro e causar danos emocionais irreparáveis.

PUBLICIDADE

Os criminosos procuram vídeos que foram carregados online e precisam apenas de alguns segundos de áudio para replicar como o alvo fala. Eles então ligam ou enviam mensagens de voz para amigos e familiares, pedindo que enviem dinheiro urgentemente.

Uma pesquisa divulgada pelo banco digital Starling Bank descobriu que 28% das pessoas foram alvo de um golpe de clonagem de voz de IA pelo menos uma vez no último ano. No entanto, 46% das pessoas nem sabiam que esse tipo de golpe existe e 8% disseram que provavelmente enviariam qualquer quantia solicitada, mesmo que achassem que a ligação de um ente querido parecia estranha.

Lisa Grahame, diretora de segurança da informação da Starling Bank, disse: “As pessoas postam regularmente conteúdo online que contém gravações de sua voz, sem nunca imaginar que isso as torna mais vulneráveis a fraudadores.”

PUBLICIDADE

O banco agora está sugerindo que as pessoas usem uma frase segura com amigos e familiares para verificar se uma chamada é genuína.

“Golpistas precisam apenas de três segundos de áudio para clonar sua voz, mas levaria apenas alguns minutos com sua família e amigos para criar uma frase segura para detê-los”, disse Grahame. “Portanto, é mais importante do que nunca que as pessoas estejam cientes desses tipos de golpes perpetrados por fraudadores e como se proteger e proteger seus entes queridos de serem vítimas.”

Sempre há a possibilidade de que palavras seguras possam ser comprometidas. Qualquer pessoa desconfiada de qualquer chamada de voz ou mensagem também pode ligar para um amigo ou familiar de confiança para verificar a solicitação.

PUBLICIDADE

A agência de cibersegurança do Reino Unido disse em janeiro que a IA estava tornando cada vez mais difícil identificar mensagens de phishing, onde os usuários são enganados a entregar senhas ou dados pessoais.

Esses golpes cada vez mais sofisticados conseguiram até enganar grandes empresas internacionais.

A polícia de Hong Kong começou uma investigação em fevereiro após um funcionário de uma empresa anônima alegar que havia sido enganado a pagar HK$200 milhões (£20 milhões) do dinheiro de sua empresa para golpistas em uma videochamada deepfake se passando por altos funcionários da empresa. Acredita-se que o criminoso tenha baixado vídeos antecipadamente e depois usado inteligência artificial para adicionar vozes falsas para usar na videoconferência.

PUBLICIDADE

Leia também:

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Rolar para cima