A OpenAI acaba de publicar uma nova pesquisa explorando como aprimorar o treinamento de modelos usando “críticos” de inteligência artificial (IA) que ajudam revisores humanos a detectar erros nas saídas de IA com mais eficiência.
Como a OpenAI declara no artigo de pesquisa, tanto os LLMs (Large Language Models – Grandes Modelos de Linguagem) quanto os críticos de IA continuarão a evoluir – a inteligência humana, no entanto, não. As limitações do nosso pobre cérebro mortal parecem não ser páreo para a avaliação de sistemas que estão em constante aprimoramento, o que significa que a IA está rapidamente se tornando sua própria treinadora.
Leia também:
Este post foi modificado pela última vez em %s = human-readable time difference 12:06
O Google DeepMind acaba de apresentar o AlphaQubit, um sistema de inteligência artificial (IA) que…
Um código recém-descoberto na última versão beta do ChatGPT sugere que a OpenAI pode estar…
A empresa chinesa de pesquisa em inteligência artificial (IA), DeepSeek, acaba de lançar o R1-Lite-Preview,…
A OpenAI e a parceira sem fins lucrativos Common Sense Media lançaram um curso de…
Brett Adcock, CEO da Figure, postou uma atualização sobre os robôs humanoides da empresa trabalhando…
A Microsoft acaba de apresentar uma suíte de novos agentes de inteligência artificial (IA) especializados…