¿Sus seres queridos piden ayuda? No, es una estafa de Inteligencia Artificial

¡Alerta de estafas! ⚠️ Los delincuentes utilizan voces creadas por inteligencia artificial (IA) para hacerse pasar por seres queridos en peligro. Un artículo de The Washington Post reveló que más de 5 personas fueron víctimas de estafas utilizando audio falso generado por IA en Estados Unidos en 2022 y las pérdidas ya valen millones. ¡Compruébalo y estad atentos! 👀

@curtonews ¿Sus seres queridos piden ayuda? ¡No! Es una estafa de inteligencia artificial... Cuidado 🚨 #noticiasversobyCurto ♬ sonido original - Curto Noticias

La inteligencia artificial se ha convertido en una herramienta para los estafadores

Así es. Ya sabemos que el IA Se utiliza para muchas cosas, incluso, desafortunadamente, para ayudar y aumentar las estafas conocidas.

PUBLICIDAD

O estafa whatsapp – cuando los delincuentes fingen ser seres queridos en peligro y piden o exigen dinero – es una obviedad, pero miles de personas siguen siendo victimizadas todos los días. 😖

Ahora este truco gana otro truco: Gracias a la facilidad de uso de los programas de inteligencia artificial, los delincuentes pueden copiar el discurso de cualquier persona a partir de una muestra de tan solo unos segundos. Normalmente, la tecnología utilizada es deepfake, que puede manipular el audio y simular determinadas voces, como el timbre y el tono..

Como resultado, al individuo le resulta difícil questionya sea que estés hablando con alguien que conoces o no.

PUBLICIDAD

Vídeo de: ¿Sabías que?

La estafa ya ha costado más de 11 millones de dólares en pérdidas

Según el informe de The Washington Post (*🚥), en Estados Unidos, este tipo de estafa se ha convertido en la segunda más popular entre los estafadores, con más de 36 mil denuncias solo en 2022, según el Comisión Federal de Comercio (FTC). Como resultado, se robaron más de 11 millones de dólares. 💸

Nueva herramienta de Microsoft

y la situación promehacerte peor, ¿ves? Con el aumento de estas herramientas de inteligencia artificial, las estafas deberían volverse más frecuentes y sofisticadas.

Microsoft, por ejemplo, desarrolló una IA capaz de replicar voces humanas a partir de muestras de al menos tres segundos. 😱

PUBLICIDAD

Formado con más de 60 mil horas de audio en inglés, el IA VAL-E Puedes crear discursos a partir de un texto, incluso simulando emociones, diferentes tonos de voz y expresiones. (mundo tecnológico)

No es fácil, pero presta especial atención, ¿vale? 🙃

¿Sus seres queridos piden ayuda? No, es una estafa de Inteligencia Artificial (Imagen: Newsverso/Uesley Durães/Midjourney)

Lea también:

(🇬🇧): contenido en inglés

(*): Contenido en otros idiomas traducido por Google Traductor

(🚥): puede requerir registro y/o suscripción 

desplazarse hacia arriba