ChatGPT han är bra inom humaniora men halkar i exakta vetenskaper; förstå testet som genomfördes med Enem-examen

Enligt ett test utfört av DeltaFolha ChatGPTEftersom OpenAI, han gjorde bra ifrån sig på Enem-testet och halkade bara på de exakta proven. AI fick ett genomsnittligt betyg på 612,3 i Enems objektiva test, vilket överträffade 98,9% av eleverna i humanvetenskap och 95,3% i språk och koder.

Analysen övervägde poängen för varje kurs och visade att artificiell intelligens skulle prestera bra i Enem, men dess prestationer i matematik ansågs låga och fick ett genomsnitt på 443,1 poäng, under 527,1 genomsnittet för mänskliga kandidater. Å andra sidan togs humanvetenskapen, konstigt nog, av tekniken. I simuleringen var AI-genomsnittet 725,3, högre än de 523,3 poängen för riktiga konkurrenter.

REKLAM

För 70 % av människorna i USA, ChatGPT är pålitligt, visar forskning
För 70 % av människorna i USA, ChatGPT är pålitligt, visar forskning

Metodik som använts Enem-tester från de senaste fem åren

Utvärderingen av ChatGPT baserades på AI-svar från tester som tagits under de senaste fem åren och svarade på 1.290 XNUMX frågor. Metodiken som användes i testet var Item Response Theory. Denna matematiska modell som antagits av Enem förutsäger objekt kalibrerade enligt parametrar för diskriminering, svårighetsgrad och sannolikhet för en slumpmässig träff, som berättat av DeltaFolha. 

A Ark beräknade slutbetyget på ChatGPT, med hjälp av Ineps standardanalys, där maskinen bara svarade på varje fråga en gång, utan tidigare exempel, vilket angav vilket alternativ den ansåg vara korrekt.

Även om han utmärkte sig inom humanvetenskap och språk och koder, ChatGPT presenterade låga prestationer i matematik, vilket skulle kunna vara ett hinder för inträde i populära kurser vid landets främsta federala universitet. Ändå fick AI ett genomsnittligt betyg på 608,7 på Enem, bättre än det som erhölls av 79% av eleverna det året, när det lades till uppsatsbetyget.

REKLAM

Läs också:

skrolla upp