@curtonews אנשים אהובים מבקשים עזרה? לא! זו הונאת בינה מלאכותית... היזהר 🚨 #newsversobyCurto ♬ סאונד מקורי - Curto חֲדָשׁוֹת
בינה מלאכותית הפכה לכלי לרמאים
ככה זה. אנחנו כבר יודעים שה IA הוא משמש לדברים רבים, כולל - למרבה הצער - כדי לסייע ולהגדיל הונאות ידועות.
פִּרסוּם
O הונאה בוואטסאפ - כשפושעים מעמידים פנים שהם אהובים בסכנה ומבקשים/דורשים כסף - זה לא פשוט, אבל אלפי אנשים ממשיכים להיות קורבן מדי יום. 😖
עכשיו הטריק הזה זוכה לטריק נוסף: בשל קלות השימוש בתוכניות AI, פושעים יכולים להעתיק את הנאום של כל אחד מדגימה של שניות ספורות בלבד. בדרך כלל, הטכנולוגיה המשמשת היא deepfake, שיכולה לתמרן אודיו ולדמות קולות מסוימים, כגון גוון וטון..
כתוצאה מכך, זה הופך להיות קשה עבור הפרט questionבין אם אתה באמת מדבר עם מישהו שאתה מכיר או לא.
פִּרסוּם
הונאה כבר עלתה יותר מ-11 מיליון דולר בהפסדים
על פי הדיווח מ וושינגטון פוסט (*🚥), בארצות הברית, סוג זה של הונאה הפך לשני הכי פופולרי בקרב רמאים, עם יותר מ-36 אלף דיווחים בשנת 2022 בלבד, על פי ועדת הסחר הפדרלית (FTC). כתוצאה מכך נגנבו יותר מ-11 מיליון דולר. 💸
כלי חדש מ Microsoft
והמצב promeמחמיר אותך, רואה? עם הגידול בכלי הבינה המלאכותית הללו, הונאות אמורות להיות תכופות ומתוחכמות יותר.
A Microsoft, למשל, פיתח AI המסוגל לשכפל קולות אנושיים מדגימות של לפחות שלוש שניות. 😱
פִּרסוּם
מאומן עם יותר מ-60 אלף שעות אודיו באנגלית, ה IA VALL-E יכול ליצור נאומים מטקסט, אפילו לדמות רגשות, גוונים שונים של קול והבעות. (טקמונדו)
זה לא קל, אבל שימו לב יותר, בסדר? 🙃
קראו גם:
(🇬🇧): תוכן באנגלית
(*): תוכן בשפות אחרות שתורגם על ידי Google מתרגם
(🚥): עשוי לדרוש הרשמה ו/או מנוי