I en uttalelse avgitt av selskapet ble det avslørt at GPT-4 ikke er helt pålitelig. I følge sin egen OpenAI, GPT-4 lider av resonneringsproblemer, er fortsatt veldig naiv og feiler på vanskelige problemer. Dette forsterker ytterligere behovet for at mennesker skal håndtere maskinen med oppmerksomhet og forsiktighet.
REKLAME
"Når AI-systemer blir mer utbredt, vil det å oppnå høye grader av pålitelighet i disse intervensjonene bli stadig mer kritisk. Foreløpig er det viktig å utfylle disse begrensningene med sikkerhetsteknikker under utrulling, for eksempel overvåking av misbruk,» sa selskapet.
GPT-4 er effektiv, men problemene vedvarer
Til tross for å innrømme interne systemproblemer, fremhevet selskapet at verktøyets ytelse er effektiv. I tillegg OpenAI hyret inn en rekke fagfolk til å bruke AI kritisk og sende tilbakemeldinger for systemforbedringer.
I følge interne tester ChatGPT-4 er 40 % bedre enn forrige versjon. EN OpenAI sa at det reduserte AIs tendens til å svare på innholdssensitive kommandoer med 82 % sammenlignet med GPT-3.5. I tekniske eller menneskeskadelige tilfeller, for eksempel medisinske forespørsler, selvskading eller konfidensielle emner, forbedret verktøyet ytelsen med 29 %. På denne måten reduserte de sjansene for å bruke Chat på en skadelig måte.