@curtonews Entes queridos pedindo socorro? Não! É golpe com inteligência artificial… Fique esperto 🚨 #newsversobyCurto ♬ som original – Curto News
Inteligência artificial se tornou ferramenta para golpistas
Pois é. Já sabemos que a IA serve pra muita coisa, inclusive – infelizmente – para auxiliar e incrementar golpes já conhecidos.
PUBLICIDADE
O golpe do Whatsapp – quando criminosos se passam por entes queridos em perigo e pedem/exigem dinheiro – já é pra lá de batido, mas milhares de pessoas seguem sendo vitimadas todos os dias. 😖
Agora essa artimanha ganha mais um artifício: devido à facilidade em usar programas de IA, os criminosos conseguem copiar a fala de qualquer pessoa a partir de uma amostra de poucos segundos. Normalmente, a tecnologia usada é a do deepfake, que pode manipular áudios e simular determinadas vozes, como o timbre e o tom.
Como consequência, fica difícil para o indivíduo questionar se realmente está falando com um conhecido ou não.
PUBLICIDADE
Golpe já custou mais de US$ 11 milhões em perdas
Segundo a reportagem do The Washington Post (*🚥), nos Estados Unidos, esse tipo de farsa se tornou a segunda mais popular entre os golpistas, com mais de 36 mil relatos apenas em 2022, de acordo com a Federal Trade Comission (FTC). Como consequência, mais de US$ 11 milhões foram roubados. 💸
Nova ferramenta da Microsoft
E a situação promete piorar viu? Com o incremento dessas ferramentas de IA, os golpes devem ser mais frequentes e sofisticados.
A Microsoft, por exemplo, desenvolveu uma IA capaz de replicar vozes humanas a partir de amostras de pelo menos três segundos. 😱
PUBLICIDADE
Treinada com mais de 60 mil horas de áudios em inglês, a IA VALL-E consegue criar falas a partir de um texto, simulando – inclusive – emoções, diferentes tons de voz e expressões. (tecmundo)
Não é fácil, mas atenção redobrada viu? 🙃
Leia também: