Geliefden die om hulp vragen? Nee, het is oplichting op het gebied van kunstmatige intelligentie

Oplichtingswaarschuwing! ⚠️ Criminelen gebruiken stemmen gecreëerd door kunstmatige intelligentie (AI) om zich voor te doen als dierbaren die in gevaar verkeren. Uit een artikel in The Washington Post bleek dat in 5 in de Verenigde Staten ruim 2022 mensen het slachtoffer waren van oplichting waarbij gebruik werd gemaakt van nepaudio gegenereerd door AI, en dat de verliezen nu al miljoenen waard zijn. Bekijk het en blijf op de hoogte! 👀

@curtonews Geliefden die om hulp vragen? Nee! Het is een oplichting met kunstmatige intelligentie... Wees voorzichtig 🚨 #nieuwsversobyCurto ♬ origineel geluid – Curto Nieuws

Kunstmatige intelligentie is een hulpmiddel geworden voor oplichters

Zo is het. Wij weten al dat de IA Het wordt voor veel dingen gebruikt, waaronder – helaas – om bekende oplichting te ondersteunen en te vergroten.

PUBLICITEIT

O Whatsapp-oplichting – wanneer criminelen zich voordoen als dierbaren die in gevaar verkeren en geld vragen/eisen – is dat een no-brainer, maar duizenden mensen worden nog steeds elke dag het slachtoffer. 😖

Nu krijgt deze truc nog een truc: Vanwege het gemak waarmee AI-programma's kunnen worden gebruikt, kunnen criminelen ieders toespraak kopiëren uit een voorbeeld van slechts enkele seconden. Meestal is de gebruikte technologie deepfake, waarmee audio kan worden gemanipuleerd en bepaalde stemmen kunnen worden gesimuleerd, zoals timbre en toon..

Als gevolg hiervan wordt het moeilijk voor het individu questionof je nu daadwerkelijk met iemand praat die je kent of niet.

PUBLICITEIT

Video van: Wist je dat?

De oplichting heeft al meer dan 11 miljoen dollar aan verliezen gekost

Volgens het rapport van The Washington Post (*🚥), in de Verenigde Staten is dit soort oplichting de op één na populairste onder oplichters geworden, met alleen al in 36 meer dan 2022 meldingen, volgens de Federale Handelscommissie (FTC). Als gevolg hiervan werd meer dan 11 miljoen dollar gestolen. 💸

Nieuw gereedschap van Microsoft

En de situatie promemaakt je nog erger, zie je? Met de toename van deze AI-tools zou oplichting frequenter en geavanceerder moeten worden.

Microsoft, ontwikkelde bijvoorbeeld een AI die menselijke stemmen kan repliceren uit samples van minimaal drie seconden. 😱

PUBLICITEIT

Getraind met meer dan 60 uur audio in het Engels, de IA VAL-E kan toespraken maken van een tekst, en zelfs emoties, verschillende stemtonen en uitdrukkingen simuleren. (tecmundo)

Het is niet gemakkelijk, maar let extra goed op, oké? 🙃

Geliefden die om hulp vragen? Nee, het is een oplichting op het gebied van kunstmatige intelligentie (Afbeelding: Newsverso/Uesley Durães/Midjourney)

Lees ook:

(🇬🇧): inhoud in het Engels

(*): Inhoud in andere talen vertaald door Google Een vertaler

(🚥): vereist mogelijk registratie en/of abonnement 

omhoog scrollen