각 과목별 점수를 고려한 분석 결과, 인공지능은 에넴에서 좋은 성적을 거뒀지만 수학 성적은 평균 443,1점으로 인간 응시자 평균 527,1점보다 낮은 것으로 나타났다. 반면에 인문과학은 이상하게도 기술에 흡수되었습니다. 시뮬레이션에서 AI 평균은 725,3으로 실제 경쟁자의 523,3점보다 높았다.
널리 알려짐
지난 5년간 Enem 테스트를 사용한 방법론
평가는 ChatGPT 지난 1.290년간 XNUMX개의 질문에 답한 테스트의 AI 응답을 기반으로 했습니다. 테스트에 사용된 방법론은 항목반응이론(Item Response Theory)이었습니다. Enem이 채택한 이 수학적 모델은 DeltaFolha가 설명한 대로 식별 매개변수, 난이도 및 무작위 적중 확률에 따라 보정된 항목을 예측합니다.
A 폴하 최종 성적을 계산했습니다. ChatGPT, Inep의 표준 분석을 사용하여 기계는 이전 예 없이 각 질문에 한 번만 대답하여 올바른 것으로 간주되는 대안을 나타냅니다.
그는 인문과학과 언어와 암호에 뛰어났지만, ChatGPT 수학에서 낮은 성적을 보여주었고 이는 미국의 주요 연방 대학의 인기 강좌에 입학하는 데 장애가 될 수 있습니다. 그럼에도 불구하고 AI는 Enem에서 평균 608,7점을 얻었는데, 이는 에세이 성적을 합산했을 때 그 해 학생의 79%가 얻은 점수보다 나은 수치입니다.
널리 알려짐
또한 읽기 :