Um estudo publicado na revista Nature revelou que, à medida que os modelos de linguagem de IA (LLMs) avançam, eles têm menos chance de admitir quando não sabem responder.
Pesquisadores da Universitat Politècnica de València, na Espanha, testaram os modelos BLOOM, Llama e GPT para verificar a precisão de suas respostas em matemática, ciências e geografia, com milhares de perguntas. As respostas foram classificadas como corretas, incorretas ou evasivas.
Por exemplo, o GPT-4 apresentou menos respostas evasivas em comparação ao GPT-3.5, mas não superou as expectativas de evitar respostas fora de sua capacidade. Os pesquisadores concluíram que, apesar dos avanços, não houve uma melhoria significativa nesse aspecto.
Leia também:
Este post foi modificado pela última vez em %s = human-readable time difference 15:27
O Google DeepMind acaba de apresentar o AlphaQubit, um sistema de inteligência artificial (IA) que…
Um código recém-descoberto na última versão beta do ChatGPT sugere que a OpenAI pode estar…
A empresa chinesa de pesquisa em inteligência artificial (IA), DeepSeek, acaba de lançar o R1-Lite-Preview,…
A OpenAI e a parceira sem fins lucrativos Common Sense Media lançaram um curso de…
Brett Adcock, CEO da Figure, postou uma atualização sobre os robôs humanoides da empresa trabalhando…
A Microsoft acaba de apresentar uma suíte de novos agentes de inteligência artificial (IA) especializados…