De analyse hield rekening met de score van elke cursus en toonde aan dat kunstmatige intelligentie goed zou presteren in de Enem, maar de prestaties in de wiskunde werden als laag beschouwd, met een gemiddelde van 443,1 punten, onder het gemiddelde van 527,1 van menselijke kandidaten. Aan de andere kant werden de menswetenschappen, merkwaardig genoeg, overgenomen door de technologie. In de simulatie was het AI-gemiddelde 725,3, hoger dan de 523,3 punten van echte concurrenten.
PUBLICITEIT
Methodologie gebruikte Enem-tests van de afgelopen vijf jaar
de evaluatie van ChatGPT was gebaseerd op AI-reacties op tests die de afgelopen vijf jaar zijn afgenomen en waarbij 1.290 vragen werden beantwoord. De methodologie die bij de test werd gebruikt, was de Item Response Theory. Dit door Enem aangenomen wiskundige model voorspelt items die zijn gekalibreerd op basis van parameters van discriminatie, moeilijkheidsgraad en waarschijnlijkheid van een willekeurige treffer, zoals verteld door DeltaFolha.
A folha berekende het eindcijfer van de ChatGPT, waarbij gebruik werd gemaakt van de standaardanalyse van Inep, waarbij de machine elke vraag slechts één keer beantwoordde, zonder eerdere voorbeelden, waarbij het alternatief werd aangegeven dat het als correct beschouwde.
Hoewel hij uitblonk in menswetenschappen en talen en codes, was de ChatGPT presenteerde lage prestaties op het gebied van wiskunde, wat een obstakel zou kunnen zijn voor toegang tot populaire cursussen aan de belangrijkste federale universiteiten van het land. Toch behaalde AI een gemiddelde score van 608,7 op de Enem, beter dan de score die 79% van de studenten dat jaar behaalde, opgeteld bij het essaycijfer.
PUBLICITEIT
Lees ook: