“วันนี้ที่ deepfakes มักเกี่ยวข้องกับจินตภาพทางเพศ การหลอกลวง หรือข้อมูลที่ไม่ถูกต้องทางการเมือง เช่น ปัญญาประดิษฐ์ (เอไอ) กำลังก้าวหน้าอย่างรวดเร็วและทำให้การสร้าง Deepfakes ง่ายขึ้นมาก จำเป็นต้องมีการป้องกัน” กลุ่มกล่าวในจดหมายซึ่งร่างโดย แอนดรูว์ คริตช์นักวิจัย AI ที่ UC Berkeley
การเผยแพร่
Deepfakes นั้นดูสมจริงแต่เป็นภาพ เสียง และวิดีโอที่สร้างขึ้นโดยอัลกอริธึม AI และความก้าวหน้าทางเทคโนโลยีล่าสุดทำให้แยกไม่ออกจากเนื้อหาที่มนุษย์สร้างขึ้นมากขึ้น
จดหมายมีชื่อว่า “ขัดขวางห่วงโซ่อุปทานของ Deepfake” ให้คำแนะนำเกี่ยวกับวิธีการควบคุม Deepfakes รวมถึงการกำหนดความผิดทางอาญาโดยสมบูรณ์สำหรับสื่อลามกเด็ก Deepfake บทลงโทษทางอาญาสำหรับบุคคลใดก็ตามที่จงใจสร้างหรืออำนวยความสะดวกในการแพร่กระจาย Deepfake ที่เป็นอันตราย และกำหนดให้บริษัท AI ป้องกันไม่ให้ผลิตภัณฑ์ของตนสร้าง Deepfake ที่เป็นอันตราย
เมื่อเช้าวันพุธ ผู้คนมากกว่า 21 คนจากหลากหลายอุตสาหกรรม รวมถึงนักวิชาการ บันเทิง และการเมือง ได้ลงนามในจดหมายดังกล่าว
การเผยแพร่
ผู้ลงนาม ได้แก่ Steven Pinker ศาสตราจารย์ด้านจิตวิทยาที่ Harvard, Joy Buolamwini ผู้ก่อตั้ง Algorithmic Justice League อดีตประธานาธิบดีเอสโตเนีย 2 คน และนักวิจัยจาก Google, DeepMind และนักวิจัยจาก OpenAI.
การตรวจสอบให้แน่ใจว่าระบบ AI จะไม่เป็นอันตรายต่อสังคมถือเป็นสิ่งสำคัญอันดับแรกสำหรับหน่วยงานกำกับดูแลนับตั้งแต่ OpenAI, สนับสนุนโดย Microsoftเปิดเผย ChatGPT ในช่วงปลายปี 2022 ซึ่งสร้างความประทับใจให้กับผู้ใช้ด้วยการให้พวกเขามีส่วนร่วมในการสนทนาแบบมนุษย์และทำงานอื่นๆ
อ่านเพิ่มเติม: