Golpistas estão usando a inteligência artificial (IA) para transformar seus vídeos de redes sociais em armas. Com apenas alguns segundos de áudio, eles podem clonar sua voz e realizar ligações altamente convincentes para seus entes queridos. A intenção? Extorquir dinheiro e causar danos emocionais irreparáveis.
Os criminosos procuram vídeos que foram carregados online e precisam apenas de alguns segundos de áudio para replicar como o alvo fala. Eles então ligam ou enviam mensagens de voz para amigos e familiares, pedindo que enviem dinheiro urgentemente.
Uma pesquisa divulgada pelo banco digital Starling Bank descobriu que 28% das pessoas foram alvo de um golpe de clonagem de voz de IA pelo menos uma vez no último ano. No entanto, 46% das pessoas nem sabiam que esse tipo de golpe existe e 8% disseram que provavelmente enviariam qualquer quantia solicitada, mesmo que achassem que a ligação de um ente querido parecia estranha.
Lisa Grahame, diretora de segurança da informação da Starling Bank, disse: “As pessoas postam regularmente conteúdo online que contém gravações de sua voz, sem nunca imaginar que isso as torna mais vulneráveis a fraudadores.”
O banco agora está sugerindo que as pessoas usem uma frase segura com amigos e familiares para verificar se uma chamada é genuína.
“Golpistas precisam apenas de três segundos de áudio para clonar sua voz, mas levaria apenas alguns minutos com sua família e amigos para criar uma frase segura para detê-los”, disse Grahame. “Portanto, é mais importante do que nunca que as pessoas estejam cientes desses tipos de golpes perpetrados por fraudadores e como se proteger e proteger seus entes queridos de serem vítimas.”
Sempre há a possibilidade de que palavras seguras possam ser comprometidas. Qualquer pessoa desconfiada de qualquer chamada de voz ou mensagem também pode ligar para um amigo ou familiar de confiança para verificar a solicitação.
A agência de cibersegurança do Reino Unido disse em janeiro que a IA estava tornando cada vez mais difícil identificar mensagens de phishing, onde os usuários são enganados a entregar senhas ou dados pessoais.
Esses golpes cada vez mais sofisticados conseguiram até enganar grandes empresas internacionais.
A polícia de Hong Kong começou uma investigação em fevereiro após um funcionário de uma empresa anônima alegar que havia sido enganado a pagar HK$200 milhões (£20 milhões) do dinheiro de sua empresa para golpistas em uma videochamada deepfake se passando por altos funcionários da empresa. Acredita-se que o criminoso tenha baixado vídeos antecipadamente e depois usado inteligência artificial para adicionar vozes falsas para usar na videoconferência.
Leia também:
Este post foi modificado pela última vez em 18 de setembro de 2024 13:35
A gigante de energia dos Emirados Árabes Unidos, ADNOC, aplicará inteligência artificial (IA) altamente autônoma…
A Anthropic acabou de lançar o suporte a PDF para seu modelo Claude 3.5 Sonnet…
O Google está adicionando uma extensão do Google Home ao aplicativo Gemini, permitindo que você…
A Walt Disney está formando um novo grupo para coordenar o uso da empresa de…
A Nvidia acaba de publicar uma nova pesquisa apresentando o HOVER, uma pequena rede neural…
O ChatGPT agora é oficialmente um mecanismo de busca com inteligência artificial (IA). A empresa…