ChatGPT 그는 인문학에는 능숙하지만 정확한 과학에는 실패합니다. Enem 시험으로 수행되는 테스트를 이해합니다.

DeltaFolha에서 실시한 테스트에 따르면 ChatGPT때문에 OpenAI, 그는 Enem 시험에서 좋은 성적을 거두었지만 정확한 시험에서는 떨어졌습니다. AI는 에넴 객관식 시험에서 평균 612,3점을 얻어 인문계 학생의 98,9%, 언어와 코드의 95,3%를 능가했다.

각 과목별 점수를 고려한 분석 결과, 인공지능은 에넴에서 좋은 성적을 거뒀지만 수학 성적은 평균 443,1점으로 인간 응시자 평균 527,1점보다 낮은 것으로 나타났다. 반면에 인문과학은 이상하게도 기술에 흡수되었습니다. 시뮬레이션에서 AI 평균은 725,3으로 실제 경쟁자의 523,3점보다 높았다.

널리 알려짐

미국 인구의 70%는 ChatGPT 신뢰할 수 있다고 연구 결과에 따르면
미국 인구의 70%는 ChatGPT 신뢰할 수 있다고 연구 결과에 따르면

지난 5년간 Enem 테스트를 사용한 방법론

평가는 ChatGPT 지난 1.290년간 XNUMX개의 질문에 답한 테스트의 AI 응답을 기반으로 했습니다. 테스트에 사용된 방법론은 항목반응이론(Item Response Theory)이었습니다. Enem이 채택한 이 수학적 모델은 DeltaFolha가 설명한 대로 식별 매개변수, 난이도 및 무작위 적중 확률에 따라 보정된 항목을 예측합니다. 

A 폴하 최종 성적을 계산했습니다. ChatGPT, Inep의 표준 분석을 사용하여 기계는 이전 예 없이 각 질문에 한 번만 대답하여 올바른 것으로 간주되는 대안을 나타냅니다.

그는 인문과학과 언어와 암호에 뛰어났지만, ChatGPT 수학에서 낮은 성적을 보여주었고 이는 미국의 주요 연방 대학의 인기 강좌에 입학하는 데 장애가 될 수 있습니다. 그럼에도 불구하고 AI는 Enem에서 평균 608,7점을 얻었는데, 이는 에세이 성적을 합산했을 때 그 해 학생의 79%가 얻은 점수보다 나은 수치입니다.

널리 알려짐

또한 읽기 :

스크롤