@curtonews Близки хора молят за помощ? Не! Това е измама с изкуствен интелект... Внимавайте 🚨 #newsversobyCurto ♬ оригинален звук – Curto Статии
Изкуственият интелект се превърна в инструмент за измамници
Така е. Вече знаем, че IA Използва се за много неща, включително – за съжаление – за подпомагане и увеличаване на известни измами.
ПУБЛИЧНОСТ
O Whatsapp измама – когато престъпниците се преструват на близки в опасност и искат/искат пари – това е безсмислено, но хиляди хора продължават да стават жертви всеки ден. 😖
Сега този трик получава друг трик: Поради лекотата на използване на AI програми, престъпниците могат да копират речта на всеки от извадка само за няколко секунди. Обикновено използваната технология е deepfake, която може да манипулира аудио и да симулира определени гласове, като тембър и тон..
В резултат на това става трудно за индивида questionнезависимо дали всъщност говорите с някой, когото познавате, или не.
ПУБЛИЧНОСТ
Измамата вече струва повече от 11 милиона щатски долара загуби
Според доклада от "Вашингтон пост" (*🚥), в Съединените щати този тип измама се превърна във втората най-популярна сред измамниците, с повече от 36 хиляди сигнала само през 2022 г., според Федерална търговска комисия (FTC). В резултат на това бяха откраднати повече от 11 милиона щатски долара. 💸
Нов инструмент от Microsoft
И ситуацията promeда те направи още по-зле, разбираш ли? С увеличаването на тези AI инструменти измамите трябва да станат по-чести и сложни.
A Microsoft, например, разработи AI, способен да възпроизвежда човешки гласове от проби от поне три секунди. 😱
ПУБЛИЧНОСТ
Обучен с повече от 60 хиляди часа аудио на английски език, the IA ВАЛ-Е може да създава речи от текст, дори да симулира емоции, различни тонове на гласа и изрази. (tecmundo)
Не е лесно, но обърнете повече внимание, става ли? 🙃
Прочетете също така:
(🇬🇧): съдържание на английски
(*): Съдържание на други езици, преведено от Google Преводач
(🚥): може да изисква регистрация и/или абонамент