@curtonews Cei dragi cer ajutor? Nu! Este o înșelătorie de inteligență artificială... Atenție 🚨 #newsversobyCurto ♬ sunet original – Curto Noutăţi
Inteligența artificială a devenit un instrument pentru escroci
Deci este. Știm deja că IA Este folosit pentru multe lucruri, inclusiv – din păcate – pentru a ajuta și a spori înșelătoriile cunoscute.
PUBLICITATE
O Escrocheria Whatsapp – când infractorii se prefac a fi cei dragi în pericol și cer/cere bani – nu este o idee, dar mii de oameni continuă să fie victimizați în fiecare zi. 😖
Acum acest truc câștigă un alt truc: Datorită ușurinței de utilizare a programelor AI, infractorii pot copia discursul oricui dintr-un eșantion de doar câteva secunde. De obicei, tehnologia folosită este deepfake, care poate manipula audio și simula anumite voci, cum ar fi timbrul și tonul..
Ca urmare, devine dificil pentru individ questionindiferent dacă vorbești cu cineva pe care îl cunoști sau nu.
PUBLICITATE
Înșelătoria a costat deja pierderi de peste 11 milioane USD
Conform raportului de la Washington Post (*🚥), în Statele Unite, acest tip de înșelătorie a devenit al doilea cel mai popular în rândul escrocilor, cu peste 36 de mii de rapoarte numai în 2022, potrivit Comisia Federală pentru Comerț (FTC). Drept urmare, au fost furate peste 11 milioane de dolari. 💸
Instrument nou de la Microsoft
Și situația promete face mai rău, vezi? Odată cu creșterea acestor instrumente AI, înșelătoriile ar trebui să devină mai frecvente și mai sofisticate.
A Microsoft, de exemplu, a dezvoltat o IA capabilă să reproducă voci umane din mostre de cel puțin trei secunde. 😱
PUBLICITATE
Antrenat cu peste 60 de mii de ore de audio în limba engleză, the IA VALL-E poate crea discursuri dintr-un text, chiar simulând emoții, diferite tonuri de voce și expresii. (tecmundo)
Nu este ușor, dar acordați o atenție sporită, bine? 🙃
Citește și:
(🇬🇧): conținut în engleză
(*): Conținut în alte limbi tradus de Google Un traducător
(🚥): poate necesita înregistrare și/sau abonament