ChatGPT 彼は人文科学には優れていますが、精密科学では失敗します。 Enem試験で実施されるテストを理解する

DeltaFolha が実施したテストによると、 ChatGPT、から OpenAI、彼は Enem テストで良い成績を収めましたが、正確な試験で滑り落ちただけでした。 AIは、Enemの客観的テストで平均612,3点を獲得し、人間科学の学生の98,9%、言語とコードの95,3%を上回りました。

分析では各コースのスコアが考慮され、人工知能はエネムでは優れた成績を収めるが、数学の成績は低いとみなされ、平均443,1点を獲得し、人間の受験者の平均527,1点を下回ったことが示された。その一方で、不思議なことに人間科学はテクノロジーに奪われていきました。シミュレーションでは、AIの平均点は725,3点で、実際の競合他社の523,3点よりも高かった。

宣伝

米国の70%の人にとって、 ChatGPT 信頼できることが研究で示されています
米国の70%の人にとって、 ChatGPT 信頼できることが研究で示されています

過去 5 年間の Enem テストを使用した方法論

の評価は、 ChatGPT 過去 1.290 年間に実施されたテストの AI 回答に基づいており、XNUMX の質問に回答しました。テストで使用された方法論は項目応答理論です。 Enem が採用したこの数学的モデルは、DeltaFolha が説明したように、ランダム ヒットの識別、難易度、確率のパラメーターに従って調整されたアイテムを予測します。 

A フォーリャ 最終成績を計算した ChatGPT、Inep の標準分析を使用し、マシンは前例なしで各質問に 1 回だけ回答し、正しいと考えられる代替案を示しました。

彼は人間科学と言語と暗号に優れていましたが、 ChatGPT 数学の成績が低く、これが国内の主要な連邦大学の人気コースに入学する際の障害となる可能性がある。それでも、AI は Enem で 608,7 という平均スコアを獲得しました。これは、エッセイの成績を加えた場合、その年の生徒の 79% が獲得したスコアよりも優れています。

宣伝

また、お読みください。

スクロールアップする