אנשים אהובים מבקשים עזרה? לא, זו הונאה של בינה מלאכותית

התראת הונאה! ⚠️ פושעים משתמשים בקולות שנוצרו על ידי בינה מלאכותית (AI) כדי להתחזות לאהובים בסכנה. מאמר בוושינגטון פוסט חשף שיותר מ-5 אנשים היו קורבנות להונאות באמצעות אודיו מזויף שנוצר על ידי AI בארצות הברית ב-2022 וההפסדים כבר שווים מיליונים. בדוק את זה והישארו מעודכנים! 👀

@curtonews אנשים אהובים מבקשים עזרה? לא! זו הונאת בינה מלאכותית... היזהר 🚨 #newsversobyCurto ♬ סאונד מקורי - Curto חֲדָשׁוֹת

בינה מלאכותית הפכה לכלי לרמאים

ככה זה. אנחנו כבר יודעים שה IA הוא משמש לדברים רבים, כולל - למרבה הצער - כדי לסייע ולהגדיל הונאות ידועות.

פִּרסוּם

O הונאה בוואטסאפ - כשפושעים מעמידים פנים שהם אהובים בסכנה ומבקשים/דורשים כסף - זה לא פשוט, אבל אלפי אנשים ממשיכים להיות קורבן מדי יום. 😖

עכשיו הטריק הזה זוכה לטריק נוסף: בשל קלות השימוש בתוכניות AI, פושעים יכולים להעתיק את הנאום של כל אחד מדגימה של שניות ספורות בלבד. בדרך כלל, הטכנולוגיה המשמשת היא deepfake, שיכולה לתמרן אודיו ולדמות קולות מסוימים, כגון גוון וטון..

כתוצאה מכך, זה הופך להיות קשה עבור הפרט questionבין אם אתה באמת מדבר עם מישהו שאתה מכיר או לא.

פִּרסוּם

סרטון מאת: האם ידעת?

הונאה כבר עלתה יותר מ-11 מיליון דולר בהפסדים

על פי הדיווח מ וושינגטון פוסט (*🚥), בארצות הברית, סוג זה של הונאה הפך לשני הכי פופולרי בקרב רמאים, עם יותר מ-36 אלף דיווחים בשנת 2022 בלבד, על פי ועדת הסחר הפדרלית (FTC). כתוצאה מכך נגנבו יותר מ-11 מיליון דולר. 💸

כלי חדש מ Microsoft

והמצב promeמחמיר אותך, רואה? עם הגידול בכלי הבינה המלאכותית הללו, הונאות אמורות להיות תכופות ומתוחכמות יותר.

Microsoft, למשל, פיתח AI המסוגל לשכפל קולות אנושיים מדגימות של לפחות שלוש שניות. 😱

פִּרסוּם

מאומן עם יותר מ-60 אלף שעות אודיו באנגלית, ה IA VALL-E יכול ליצור נאומים מטקסט, אפילו לדמות רגשות, גוונים שונים של קול והבעות. (טקמונדו)

זה לא קל, אבל שימו לב יותר, בסדר? 🙃

אנשים אהובים מבקשים עזרה? לא, זו הונאה של בינה מלאכותית (תמונה: Newsverso/Uesley Durães/Midjourney)

קראו גם:

(🇬🇧): תוכן באנגלית

(*): תוכן בשפות אחרות שתורגם על ידי Google מתרגם

(🚥): עשוי לדרוש הרשמה ו/או מנוי 

לגלול מעלה