Um estudo publicado na revista Nature revelou que, à medida que os modelos de linguagem de IA (LLMs) avançam, eles têm menos chance de admitir quando não sabem responder.
Pesquisadores da Universitat Politècnica de València, na Espanha, testaram os modelos BLOOM, Llama e GPT para verificar a precisão de suas respostas em matemática, ciências e geografia, com milhares de perguntas. As respostas foram classificadas como corretas, incorretas ou evasivas.
Por exemplo, o GPT-4 apresentou menos respostas evasivas em comparação ao GPT-3.5, mas não superou as expectativas de evitar respostas fora de sua capacidade. Os pesquisadores concluíram que, apesar dos avanços, não houve uma melhoria significativa nesse aspecto.
Leia também:
Este post foi modificado pela última vez em 2 de outubro de 2024 15:27
A Walt Disney está formando um novo grupo para coordenar o uso da empresa de…
A Nvidia acaba de publicar uma nova pesquisa apresentando o HOVER, uma pequena rede neural…
O ChatGPT agora é oficialmente um mecanismo de busca com inteligência artificial (IA). A empresa…
A Ucrânia está usando dezenas de sistemas de inteligência artificial (IA) fabricados localmente para seus…
A Alphabet, dona do Google, anunciou na quinta-feira (31) um conjunto de recursos que incorporam…
A startup de design Recraft acaba de anunciar seu novo modelo de inteligência artificial (IA)…