사랑하는 사람이 도움을 요청하고 있나요? 아니요, 인공지능 사기입니다

사기 경고! ⚠️ 범죄자들은 ​​인공지능(AI)이 만들어낸 목소리를 이용해 위험에 처한 사랑하는 사람을 사칭합니다. 워싱턴포스트(Washington Post) 기사에 따르면 5년 미국에서 AI가 생성한 가짜 오디오를 이용한 사기 피해를 입은 사람은 2022명 이상이었으며 피해액은 이미 수백만 달러에 이른다. 확인해 보시고 계속 지켜봐 주시기 바랍니다! 🙌

@curtonews 사랑하는 사람이 도움을 요청하고 있나요? 아니요! 인공지능 사기입니다... 조심하세요🚨 #뉴스버소비Curto ♬ 솜 오리지널 – Curto 뉴스

인공지능이 사기꾼의 도구가 됐다

그렇습니다. 우리는 이미 IA 불행히도 알려진 사기를 지원하고 증가시키는 것을 포함하여 많은 용도로 사용됩니다.

널리 알려짐

O Whatsapp 사기 – 범죄자들이 위험에 처한 사랑하는 사람인 척하며 돈을 요구/요구하면 별 문제가 되지 않지만 매일 수천 명의 사람들이 계속해서 피해자가 되고 있습니다. 😖

이제 이 트릭은 또 다른 트릭을 얻습니다. AI 프로그램을 사용하기 쉽기 때문에 범죄자는 단 몇 초의 샘플에서 누구의 음성도 복사할 수 있습니다. 일반적으로 사용되는 기술은 오디오를 조작하고 음색이나 톤과 같은 특정 음성을 시뮬레이션할 수 있는 딥페이크(deepfake)입니다..

그러다 보니 개인이 힘들어진다. question당신이 실제로 아는 사람과 이야기하고 있든 없든.

널리 알려짐

비디오 작성자: 알고 계셨나요?

사기로 인해 이미 11만 달러 이상의 손실이 발생했습니다.

의 보고에 따르면 워싱턴 포스트 (*🚥), 미국에서는 이러한 유형의 사기가 사기꾼들 사이에서 두 번째로 인기가 많아졌으며, 36년에만 2022건이 넘는 신고가 접수되었다고 합니다. 연방거래위원회 (FTC). 그 결과 미화 11만 달러 이상이 도난당했습니다. 💸

새로운 도구 Microsoft

그리고 상황 prome당신을 더 나쁘게 만들죠, 알죠? 이러한 AI 도구가 증가함에 따라 사기는 더욱 빈번해지고 정교해집니다.

Microsoft예를 들어, 최소 3초의 샘플에서 사람의 목소리를 복제할 수 있는 AI를 개발했습니다. 😱

널리 알려짐

60만 시간 이상의 영어 오디오 교육을 받은 IA VALL-E 감정, 다양한 목소리 톤 및 표정을 시뮬레이션하여 텍스트로부터 연설을 만들 수 있습니다. (테문도)

쉽지는 않지만 각별히 주의를 기울이세요. 🠙 ƒ

사랑하는 사람이 도움을 요청하고 있나요? 아니요, 인공지능 사기입니다. (이미지: Newsverso/Uesley Durães/Midjourney)

또한 읽기 :

(🇬🇧): 영어 내용

(*): 에서 번역한 다른 언어 콘텐츠 Google 번역가

(🚥): 등록 및/또는 구독이 필요할 수 있습니다. 

스크롤