ChatGPT เขาเก่งด้านมนุษยศาสตร์แต่พลาดวิชาวิทยาศาสตร์แน่นอน เข้าใจการทดสอบที่ทำกับการสอบ Enem

จากการทดสอบโดย DeltaFolha พบว่า ChatGPTตั้งแต่ OpenAIเขาทำได้ดีในการทดสอบ Enem เพียงแต่สอบพลาดเท่านั้น AI ได้รับคะแนนเฉลี่ย 612,3 ในการทดสอบวัตถุประสงค์ของ Enem ซึ่งแซงหน้านักเรียนสาขาวิทยาศาสตร์มนุษย์ 98,9% และภาษาและรหัส 95,3%

การวิเคราะห์พิจารณาคะแนนของแต่ละหลักสูตรและแสดงให้เห็นว่าปัญญาประดิษฐ์จะทำงานได้ดีใน Enem แต่ประสิทธิภาพในวิชาคณิตศาสตร์ถือว่าต่ำ โดยได้คะแนนเฉลี่ย 443,1 คะแนน ซึ่งต่ำกว่าค่าเฉลี่ยของผู้สมัครที่เป็นมนุษย์ซึ่งได้ 527,1 คะแนน ในทางกลับกัน วิทยาศาสตร์ของมนุษย์ได้รับความสนใจจากเทคโนโลยีอย่างน่าสงสัย ในการจำลองค่าเฉลี่ย AI อยู่ที่ 725,3 ซึ่งสูงกว่าคู่แข่งจริงที่ได้ 523,3 คะแนน

การเผยแพร่

สำหรับ 70% ของคนในสหรัฐอเมริกา ChatGPT มีความน่าเชื่อถือ ผลวิจัยเผย
สำหรับ 70% ของคนในสหรัฐอเมริกา ChatGPT มีความน่าเชื่อถือ ผลวิจัยเผย

ระเบียบวิธีใช้การทดสอบ Enem จากห้าปีที่ผ่านมา

การประเมินผลของ ChatGPT อิงตามการตอบสนองของ AI จากการทดสอบในช่วงห้าปีที่ผ่านมา โดยตอบคำถาม 1.290 ข้อ วิธีทดสอบที่ใช้ในการทดสอบคือ ทฤษฎีการตอบสนองตามข้อ แบบจำลองทางคณิตศาสตร์ที่ Enem นำมาใช้ทำนายรายการที่ปรับเทียบตามพารามิเตอร์ของการเลือกปฏิบัติ ความยาก และความน่าจะเป็นของการโจมตีแบบสุ่ม ตามที่บรรยายโดย DeltaFolha 

A ฟอลฮา คำนวณเกรดสุดท้ายของ ChatGPTโดยใช้การวิเคราะห์มาตรฐานของ Inep ซึ่งเครื่องตอบคำถามแต่ละข้อเพียงครั้งเดียว โดยไม่มีตัวอย่างก่อนหน้านี้ ซึ่งระบุทางเลือกอื่นที่ถือว่าถูกต้อง

แม้ว่าเขาจะเก่งในด้านวิทยาศาสตร์มนุษย์ ภาษา และรหัสก็ตาม ChatGPT มีผลการเรียนคณิตศาสตร์ต่ำ ซึ่งอาจเป็นอุปสรรคต่อการเข้าเรียนหลักสูตรยอดนิยมที่มหาวิทยาลัยของรัฐบาลกลางหลักๆ ของประเทศ ถึงกระนั้น AI ก็ได้รับคะแนนเฉลี่ย 608,7 ใน Enem ซึ่งดีกว่าคะแนนที่ได้รับโดยนักเรียน 79% ในปีนั้น เมื่อบวกเข้ากับเกรดเรียงความ

การเผยแพร่

อ่านเพิ่มเติม:

เลื่อนขึ้น