Lieben, die um Hilfe bitten? Nein, es ist ein Betrug mit künstlicher Intelligenz

Betrugsalarm! ⚠️ Kriminelle nutzen von künstlicher Intelligenz (KI) erzeugte Stimmen, um sich als geliebte Menschen in Gefahr auszugeben. Ein Artikel in der Washington Post enthüllte, dass im Jahr 5 in den Vereinigten Staaten mehr als 2022 Menschen Opfer von Betrügereien mit gefälschten, von KI generierten Audiodaten wurden und die Verluste bereits Millionen wert sind. Schauen Sie es sich an und bleiben Sie dran! 👀

@curtonews Lieben, die um Hilfe bitten? NEIN! Es ist ein Betrug mit künstlicher Intelligenz... Seien Sie vorsichtig 🚨 #newsversobyCurto ♬ Originalton – Curto Aktuelles

Künstliche Intelligenz ist zu einem Werkzeug für Betrüger geworden

So ist es. Wir wissen bereits, dass die IA Es wird für viele Zwecke verwendet, darunter leider auch zur Unterstützung und Verbreitung bekannter Betrügereien.

WERBUNG

O WhatsApp-Betrug – Wenn Kriminelle vorgeben, geliebte Menschen in Gefahr zu sein und Geld verlangen/verlangen – ist das ein Kinderspiel, aber weiterhin werden jeden Tag Tausende von Menschen zum Opfer. 😖

Jetzt erhält dieser Trick einen weiteren Trick: Aufgrund der einfachen Verwendung von KI-Programmen können Kriminelle die Rede eines jeden aus einer Stichprobe von nur wenigen Sekunden kopieren. In der Regel handelt es sich bei der verwendeten Technologie um Deepfake, mit der Audiodaten manipuliert und bestimmte Stimmen wie Klangfarbe und Klang simuliert werden können..

Dadurch wird es für den Einzelnen schwierig questionob Sie tatsächlich mit jemandem sprechen, den Sie kennen oder nicht.

WERBUNG

Video von: Wussten Sie schon?

Der Betrug hat bereits Verluste in Höhe von mehr als 11 Millionen US-Dollar verursacht

Laut dem Bericht von The Washington Post (*🚥), in den Vereinigten Staaten ist diese Art von Betrug mit mehr als 36 Meldungen allein im Jahr 2022 die zweitbeliebteste unter Betrügern geworden, so die Bundeshandelskommission (FTC). Infolgedessen wurden mehr als 11 Millionen US-Dollar gestohlen. 💸

Neues Werkzeug von Microsoft

Und die Situation promemacht dich noch schlimmer, verstehst du? Mit der Zunahme dieser KI-Tools dürften Betrügereien häufiger und raffinierter werden.

MicrosoftSo hat beispielsweise eine KI entwickelt, die in der Lage ist, menschliche Stimmen aus Samples von mindestens drei Sekunden nachzubilden. 😱

WERBUNG

Ausgebildet mit mehr als 60 Stunden Audio auf Englisch IA VALL-E kann aus einem Text Reden erstellen und sogar Emotionen, verschiedene Stimmlagen und Ausdrücke simulieren. (tecmundo)

Es ist nicht einfach, aber pass besonders auf, okay? 🙃

Lieben, die um Hilfe bitten? Nein, es ist ein Betrug mit künstlicher Intelligenz (Bild: Newsverso/Uesley Durães/Midjourney)

Lesen Sie auch:

(🇬🇧): Inhalt auf Englisch

(*): Inhalte in anderen Sprachen übersetzt von Google Übersetzer

(🚥): Möglicherweise ist eine Registrierung und/oder ein Abonnement erforderlich 

hochscrollen