Analysen övervägde poängen för varje kurs och visade att artificiell intelligens skulle prestera bra i Enem, men dess prestationer i matematik ansågs låga och fick ett genomsnitt på 443,1 poäng, under 527,1 genomsnittet för mänskliga kandidater. Å andra sidan togs humanvetenskapen, konstigt nog, av tekniken. I simuleringen var AI-genomsnittet 725,3, högre än de 523,3 poängen för riktiga konkurrenter.
REKLAM
Metodik som använts Enem-tester från de senaste fem åren
Utvärderingen av ChatGPT baserades på AI-svar från tester som tagits under de senaste fem åren och svarade på 1.290 XNUMX frågor. Metodiken som användes i testet var Item Response Theory. Denna matematiska modell som antagits av Enem förutsäger objekt kalibrerade enligt parametrar för diskriminering, svårighetsgrad och sannolikhet för en slumpmässig träff, som berättat av DeltaFolha.
A Ark beräknade slutbetyget på ChatGPT, med hjälp av Ineps standardanalys, där maskinen bara svarade på varje fråga en gång, utan tidigare exempel, vilket angav vilket alternativ den ansåg vara korrekt.
Även om han utmärkte sig inom humanvetenskap och språk och koder, ChatGPT presenterade låga prestationer i matematik, vilket skulle kunna vara ett hinder för inträde i populära kurser vid landets främsta federala universitet. Ändå fick AI ett genomsnittligt betyg på 608,7 på Enem, bättre än det som erhölls av 79% av eleverna det året, när det lades till uppsatsbetyget.
REKLAM
Läs också: