@curtonews عزیزان درخواست کمک دارند؟ نه! کلاهبرداری هوش مصنوعی است ... مراقب باشید 🚨 #خبرگزاریCurto ♬ صدای اصلی – Curto رسانه
هوش مصنوعی به ابزاری برای کلاهبرداران تبدیل شده است
پس اینطور. ما قبلاً می دانیم که IA برای بسیاری از موارد از جمله - متأسفانه - برای کمک و افزایش کلاهبرداری های شناخته شده استفاده می شود.
تبلیغات
O کلاهبرداری واتساپ - وقتی مجرمان وانمود می کنند که عزیزانشان در خطر هستند و پول می خواهند یا درخواست می کنند - این کار بیهوده است، اما هزاران نفر همچنان هر روز قربانی می شوند. 😖
حالا این ترفند یک ترفند دیگر به دست می آورد: به دلیل سهولت استفاده از برنامههای هوش مصنوعی، مجرمان میتوانند گفتار هر کسی را از نمونهای چند ثانیهای کپی کنند. به طور معمول، فناوری مورد استفاده عمیقفیک است که میتواند صدا را دستکاری کرده و صداهای خاصی مانند تامبر و لحن را شبیهسازی کند..
در نتیجه برای فرد سخت می شود questionآیا واقعاً با کسی که می شناسید صحبت می کنید یا نه.
تبلیغات
کلاهبرداری تاکنون بیش از 11 میلیون دلار ضرر داشته است
بر اساس گزارش از واشنگتن پست (*🚥در ایالات متحده، این نوع کلاهبرداری با بیش از 36 هزار گزارش تنها در سال 2022، دومین مورد محبوبیت در بین کلاهبرداران شده است. کمیسیون تجارت فدرال (FTC). در نتیجه بیش از 11 میلیون دلار آمریکا به سرقت رفت. 💸
ابزار جدید از Microsoft
و وضعیت promeشما را بدتر می کند، می بینید؟ با افزایش این ابزارهای هوش مصنوعی، کلاهبرداری ها باید بیشتر و پیچیده تر شوند.
A Microsoftبرای مثال، یک هوش مصنوعی توسعه داده است که می تواند صدای انسان را از نمونه های حداقل سه ثانیه ای تکرار کند. 😱
تبلیغات
آموزش دیده با بیش از 60 هزار ساعت صوت به زبان انگلیسی IA VALL-E می تواند گفتارهایی را از یک متن، حتی شبیه سازی احساسات، لحن های مختلف صدا و بیان ایجاد کند. (tecmundo)
این آسان نیست، اما توجه بیشتری داشته باشید، خوب؟ 🙃
همچنین بخوانید:
(🇬🇧): محتوا به زبان انگلیسی
(*): محتوا به زبان های دیگر ترجمه شده توسط Google یک مترجم
(🚥): ممکن است نیاز به ثبت نام و/یا اشتراک داشته باشد