@curtonews 사랑하는 사람이 도움을 요청하고 있나요? 아니요! 인공지능 사기입니다... 조심하세요🚨 #뉴스버소비Curto ♬ 솜 오리지널 – Curto 뉴스
인공지능이 사기꾼의 도구가 됐다
그렇습니다. 우리는 이미 IA 불행히도 알려진 사기를 지원하고 증가시키는 것을 포함하여 많은 용도로 사용됩니다.
널리 알려짐
O Whatsapp 사기 – 범죄자들이 위험에 처한 사랑하는 사람인 척하며 돈을 요구/요구하면 별 문제가 되지 않지만 매일 수천 명의 사람들이 계속해서 피해자가 되고 있습니다. 😖
이제 이 트릭은 또 다른 트릭을 얻습니다. AI 프로그램을 사용하기 쉽기 때문에 범죄자는 단 몇 초의 샘플에서 누구의 음성도 복사할 수 있습니다. 일반적으로 사용되는 기술은 오디오를 조작하고 음색이나 톤과 같은 특정 음성을 시뮬레이션할 수 있는 딥페이크(deepfake)입니다..
그러다 보니 개인이 힘들어진다. question당신이 실제로 아는 사람과 이야기하고 있든 없든.
널리 알려짐
사기로 인해 이미 11만 달러 이상의 손실이 발생했습니다.
의 보고에 따르면 워싱턴 포스트 (*🚥), 미국에서는 이러한 유형의 사기가 사기꾼들 사이에서 두 번째로 인기가 많아졌으며, 36년에만 2022건이 넘는 신고가 접수되었다고 합니다. 연방거래위원회 (FTC). 그 결과 미화 11만 달러 이상이 도난당했습니다. 💸
새로운 도구 Microsoft
그리고 상황 prome당신을 더 나쁘게 만들죠, 알죠? 이러한 AI 도구가 증가함에 따라 사기는 더욱 빈번해지고 정교해집니다.
A Microsoft예를 들어, 최소 3초의 샘플에서 사람의 목소리를 복제할 수 있는 AI를 개발했습니다. 😱
널리 알려짐
60만 시간 이상의 영어 오디오 교육을 받은 IA VALL-E 감정, 다양한 목소리 톤 및 표정을 시뮬레이션하여 텍스트로부터 연설을 만들 수 있습니다. (테문도)
쉽지는 않지만 각별히 주의를 기울이세요. 🠙 ƒ
또한 읽기 :
(🇬🇧): 영어 내용
(*): 에서 번역한 다른 언어 콘텐츠 Google 번역가
(🚥): 등록 및/또는 구독이 필요할 수 있습니다.