A OpenAI acaba de publicar uma nova pesquisa explorando como aprimorar o treinamento de modelos usando “críticos” de inteligência artificial (IA) que ajudam revisores humanos a detectar erros nas saídas de IA com mais eficiência.
Como a OpenAI declara no artigo de pesquisa, tanto os LLMs (Large Language Models – Grandes Modelos de Linguagem) quanto os críticos de IA continuarão a evoluir – a inteligência humana, no entanto, não. As limitações do nosso pobre cérebro mortal parecem não ser páreo para a avaliação de sistemas que estão em constante aprimoramento, o que significa que a IA está rapidamente se tornando sua própria treinadora.
Leia também:
Este post foi modificado pela última vez em %s = human-readable time difference 12:06
O Google DeepMind acaba de anunciar uma parceria estratégica com a Apptronik, uma empresa de…
Uma equipe de pesquisadores de 20 laboratórios diferentes acaba de apresentar o Genesis, um motor…
O Google acabou de lançar o que está chamando de um novo modelo de inteligência…
A GitHub, de propriedade da Microsoft, acaba de anunciar um nível gratuito de seu Copilot…
A OpenAI acaba de lançar uma nova maneira surpreendente de acessar o ChatGPT - através…
O Google DeepMind acaba de lançar o FACTS Grounding, um novo benchmark projetado para avaliar…