Um estudo publicado na revista Nature revelou que, à medida que os modelos de linguagem de IA (LLMs) avançam, eles têm menos chance de admitir quando não sabem responder.
Pesquisadores da Universitat Politècnica de València, na Espanha, testaram os modelos BLOOM, Llama e GPT para verificar a precisão de suas respostas em matemática, ciências e geografia, com milhares de perguntas. As respostas foram classificadas como corretas, incorretas ou evasivas.
Por exemplo, o GPT-4 apresentou menos respostas evasivas em comparação ao GPT-3.5, mas não superou as expectativas de evitar respostas fora de sua capacidade. Os pesquisadores concluíram que, apesar dos avanços, não houve uma melhoria significativa nesse aspecto.
Leia também:
Este post foi modificado pela última vez em %s = human-readable time difference 15:27
O Google DeepMind acaba de anunciar uma parceria estratégica com a Apptronik, uma empresa de…
Uma equipe de pesquisadores de 20 laboratórios diferentes acaba de apresentar o Genesis, um motor…
O Google acabou de lançar o que está chamando de um novo modelo de inteligência…
A GitHub, de propriedade da Microsoft, acaba de anunciar um nível gratuito de seu Copilot…
A OpenAI acaba de lançar uma nova maneira surpreendente de acessar o ChatGPT - através…
O Google DeepMind acaba de lançar o FACTS Grounding, um novo benchmark projetado para avaliar…