Golpistas estão usando a inteligência artificial (IA) para transformar seus vídeos de redes sociais em armas. Com apenas alguns segundos de áudio, eles podem clonar sua voz e realizar ligações altamente convincentes para seus entes queridos. A intenção? Extorquir dinheiro e causar danos emocionais irreparáveis.
Os criminosos procuram vídeos que foram carregados online e precisam apenas de alguns segundos de áudio para replicar como o alvo fala. Eles então ligam ou enviam mensagens de voz para amigos e familiares, pedindo que enviem dinheiro urgentemente.
Uma pesquisa divulgada pelo banco digital Starling Bank descobriu que 28% das pessoas foram alvo de um golpe de clonagem de voz de IA pelo menos uma vez no último ano. No entanto, 46% das pessoas nem sabiam que esse tipo de golpe existe e 8% disseram que provavelmente enviariam qualquer quantia solicitada, mesmo que achassem que a ligação de um ente querido parecia estranha.
Lisa Grahame, diretora de segurança da informação da Starling Bank, disse: “As pessoas postam regularmente conteúdo online que contém gravações de sua voz, sem nunca imaginar que isso as torna mais vulneráveis a fraudadores.”
O banco agora está sugerindo que as pessoas usem uma frase segura com amigos e familiares para verificar se uma chamada é genuína.
“Golpistas precisam apenas de três segundos de áudio para clonar sua voz, mas levaria apenas alguns minutos com sua família e amigos para criar uma frase segura para detê-los”, disse Grahame. “Portanto, é mais importante do que nunca que as pessoas estejam cientes desses tipos de golpes perpetrados por fraudadores e como se proteger e proteger seus entes queridos de serem vítimas.”
Sempre há a possibilidade de que palavras seguras possam ser comprometidas. Qualquer pessoa desconfiada de qualquer chamada de voz ou mensagem também pode ligar para um amigo ou familiar de confiança para verificar a solicitação.
A agência de cibersegurança do Reino Unido disse em janeiro que a IA estava tornando cada vez mais difícil identificar mensagens de phishing, onde os usuários são enganados a entregar senhas ou dados pessoais.
Esses golpes cada vez mais sofisticados conseguiram até enganar grandes empresas internacionais.
A polícia de Hong Kong começou uma investigação em fevereiro após um funcionário de uma empresa anônima alegar que havia sido enganado a pagar HK$200 milhões (£20 milhões) do dinheiro de sua empresa para golpistas em uma videochamada deepfake se passando por altos funcionários da empresa. Acredita-se que o criminoso tenha baixado vídeos antecipadamente e depois usado inteligência artificial para adicionar vozes falsas para usar na videoconferência.
Leia também:
Este post foi modificado pela última vez em %s = human-readable time difference 13:35
O Google DeepMind acaba de apresentar o AlphaQubit, um sistema de inteligência artificial (IA) que…
Um código recém-descoberto na última versão beta do ChatGPT sugere que a OpenAI pode estar…
A empresa chinesa de pesquisa em inteligência artificial (IA), DeepSeek, acaba de lançar o R1-Lite-Preview,…
A OpenAI e a parceira sem fins lucrativos Common Sense Media lançaram um curso de…
Brett Adcock, CEO da Figure, postou uma atualização sobre os robôs humanoides da empresa trabalhando…
A Microsoft acaba de apresentar uma suíte de novos agentes de inteligência artificial (IA) especializados…