W analizie uwzględniono wyniki każdego kursu i wykazano, że sztuczna inteligencja dobrze poradziłaby sobie w Enem, jednak jej wyniki w matematyce uznano za niskie, uzyskując średnio 443,1 punktów, poniżej średniej 527,1 kandydatów na ludziach. Z drugiej strony, co ciekawe, nauki humanistyczne zostały przejęte przez technologię. W symulacji średnia AI wyniosła 725,3, czyli była wyższa niż 523,3 punktów u prawdziwych konkurentów.
PUBLICIDADA
W metodologii zastosowano testy Enem z ostatnich pięciu lat
Ocena ww ChatGPT opierało się na odpowiedziach sztucznej inteligencji z testów przeprowadzonych w ciągu ostatnich pięciu lat i odpowiedziało na 1.290 pytań. Metodologią zastosowaną w teście była teoria odpowiedzi na pytanie. Ten model matematyczny przyjęty przez Enema przewiduje elementy skalibrowane według parametrów dyskryminacji, trudności i prawdopodobieństwa przypadkowego trafienia, jak opowiada DeltaFolha.
A Arkusz wyliczył ocenę końcową z ChatGPT, korzystając ze standardowej analizy Inepa, w której maszyna odpowiadała na każde pytanie tylko raz, bez wcześniejszych przykładów, wskazując alternatywę, którą uważała za poprawną.
Chociaż celował w naukach humanistycznych, językach i kodach, ChatGPT prezentował słabe wyniki w matematyce, co mogło stanowić przeszkodę w wejściu na popularne kierunki na głównych uniwersytetach federalnych w kraju. Mimo to sztuczna inteligencja uzyskała w Enem średni wynik 608,7, lepszy niż ten, który uzyskało w tym roku 79% uczniów, po dodaniu do oceny z eseju.
PUBLICIDADA
Przeczytaj także: