ChatGPT han er god i humaniora, men glider i eksakte videnskaber; forstå testen udført med Enem-eksamenen

Ifølge en test udført af DeltaFolha ChatGPTFordi OpenAI, han klarede sig godt på Enem-testen, og gled kun i de nøjagtige eksamener. AI opnåede en gennemsnitlig score på 612,3 i Enem objektive test, hvilket oversteg 98,9% af eleverne i humanvidenskab og 95,3% i sprog og koder.

Analysen betragtede scoren for hvert kursus og viste, at kunstig intelligens ville klare sig godt i Enem, men dens præstation i matematik blev anset for lav, og opnåede et gennemsnit på 443,1 point, under gennemsnittet på 527,1 for menneskelige kandidater. På den anden side blev humanvidenskaberne mærkeligt nok taget af teknologien. I simuleringen var AI-gennemsnittet 725,3, højere end de 523,3 point for rigtige konkurrenter.

ANNONCER

For 70 % af befolkningen i USA, ChatGPT er pålidelig, viser forskning
For 70 % af befolkningen i USA, ChatGPT er pålidelig, viser forskning

Metodik brugt Enem-test fra de sidste fem år

Vurderingen af ChatGPT var baseret på AI-svar fra test taget i løbet af de sidste fem år og besvarede 1.290 spørgsmål. Metoden brugt i testen var Item Response Theory. Denne matematiske model, der er vedtaget af Enem, forudsiger elementer kalibreret i henhold til parametre for diskrimination, sværhedsgrad og sandsynlighed for et tilfældigt hit, som fortalt af DeltaFolha. 

A Ark beregnet den endelige karakter af ChatGPT, ved hjælp af Ineps standardanalyse, hvor maskinen kun besvarede hvert spørgsmål én gang, uden tidligere eksempler, hvilket angiver det alternativ, den anså for korrekt.

Selvom han udmærkede sig inden for humanvidenskab og sprog og koder, ChatGPT præsenteret lave præstationer i matematik, hvilket kunne være en hindring for adgang til populære kurser på landets vigtigste føderale universiteter. Alligevel opnåede AI en gennemsnitlig score på 608,7 på Enem, bedre end den opnåede af 79% af eleverne det år, når det blev tilføjet til essaykarakteren.

ANNONCER

Læs også:

rulle op