Αγαπημένα πρόσωπα ζητούν βοήθεια; Όχι, πρόκειται για απάτη Τεχνητής Νοημοσύνης

Ειδοποίηση απάτης! ⚠️ Οι εγκληματίες χρησιμοποιούν φωνές που δημιουργούνται από την τεχνητή νοημοσύνη (AI) για να υποδυθούν τα αγαπημένα τους πρόσωπα που βρίσκονται σε κίνδυνο. Ένα άρθρο στην Washington Post αποκάλυψε ότι περισσότεροι από 5 άνθρωποι έπεσαν θύματα απάτης χρησιμοποιώντας ψεύτικο ήχο που δημιουργήθηκε από την τεχνητή νοημοσύνη στις Ηνωμένες Πολιτείες το 2022 και οι απώλειες ανέρχονται ήδη σε εκατομμύρια. Δείτε το και μείνετε συντονισμένοι! 👀

@curtonews Αγαπημένα πρόσωπα ζητούν βοήθεια; Οχι! Είναι απάτη τεχνητής νοημοσύνης... Προσοχή 🚨 #newsversobyCurto ♬ πρωτότυπος ήχος – Curto Νέα

Η τεχνητή νοημοσύνη έχει γίνει εργαλείο για απατεώνες

Ετσι είναι. Γνωρίζουμε ήδη ότι η IA Χρησιμοποιείται για πολλά πράγματα, συμπεριλαμβανομένων – δυστυχώς – για να βοηθήσει και να αυξήσει τις γνωστές απάτες.

ΔΙΑΦΗΜΙΣΗ

O Απάτη Whatsapp – όταν οι εγκληματίες προσποιούνται ότι είναι αγαπημένα τους πρόσωπα που κινδυνεύουν και ζητούν/ζητούν χρήματα – είναι απρόβλεπτο, αλλά χιλιάδες άνθρωποι συνεχίζουν να πέφτουν θύματα καθημερινά. 😖

Τώρα αυτό το κόλπο αποκτά ένα άλλο κόλπο: Λόγω της ευκολίας χρήσης προγραμμάτων AI, οι εγκληματίες μπορούν να αντιγράψουν την ομιλία οποιουδήποτε από ένα δείγμα λίγων μόλις δευτερολέπτων. Συνήθως, η τεχνολογία που χρησιμοποιείται είναι deepfake, η οποία μπορεί να χειριστεί τον ήχο και να προσομοιώσει ορισμένες φωνές, όπως ηχόχρωμα και τόνος..

Ως αποτέλεσμα, γίνεται δύσκολο για το άτομο questionείτε μιλάτε πραγματικά με κάποιον που γνωρίζετε είτε όχι.

ΔΙΑΦΗΜΙΣΗ

Βίντεο από: Γνωρίζατε;

Η απάτη έχει ήδη κοστίσει πάνω από 11 εκατομμύρια δολάρια σε ζημίες

Σύμφωνα με την αναφορά από Η εφημερίδα Washington Post (*🚥), στις Ηνωμένες Πολιτείες, αυτό το είδος απάτης έχει γίνει το δεύτερο πιο δημοφιλές μεταξύ των απατεώνων, με περισσότερες από 36 χιλιάδες αναφορές μόνο το 2022, σύμφωνα με Ομοσπονδιακή Επιτροπή Εμπορίου (FTC). Ως αποτέλεσμα, κλάπηκαν περισσότερα από 11 εκατομμύρια δολάρια. 💸

Νέο εργαλείο από Microsoft

Και η κατάσταση promeσε κάνει χειρότερο, βλέπεις; Με την αύξηση αυτών των εργαλείων τεχνητής νοημοσύνης, οι απάτες θα πρέπει να γίνουν πιο συχνές και περίπλοκες.

MicrosoftΓια παράδειγμα, ανέπτυξε ένα AI ικανό να αναπαράγει ανθρώπινες φωνές από δείγματα τουλάχιστον τριών δευτερολέπτων. 😱

ΔΙΑΦΗΜΙΣΗ

Εκπαιδευμένος με περισσότερες από 60 χιλιάδες ώρες ήχου στα αγγλικά, ο ΙΑ ΒΑΛΛ-Ε μπορεί να δημιουργήσει ομιλίες από ένα κείμενο, ακόμη και να προσομοιώνει συναισθήματα, διαφορετικούς τόνους φωνής και εκφράσεις. (tecmundo)

Δεν είναι εύκολο, αλλά δώστε ιδιαίτερη προσοχή, εντάξει; 🙃

Αγαπημένα πρόσωπα ζητούν βοήθεια; Όχι, πρόκειται για απάτη τεχνητής νοημοσύνης (Εικόνα: Newsverso/Uesley Durães/Midjourney)

Διαβάστε επίσης:

(🇬🇧): περιεχόμενο στα αγγλικά

(*): Περιεχόμενο σε άλλες γλώσσες μεταφρασμένο από Google Ενας μεταφραστής

(🚥): ενδέχεται να απαιτείται εγγραφή ή/και συνδρομή 

μετακινηθείτε προς τα επάνω