Pesquisadores da Meta apresentaram recentemente um novo método chamado Otimização de Preferência de Pensamento (TPO) para treinar grandes modelos de linguagem a “pensar” antes de responder a instruções gerais – não apenas tarefas de raciocínio.
Yann LeCun, da própria Meta, pode zombar da noção, mas esse método mostra o potencial da IA de “pensar” para tarefas mais amplas do que apenas matemática e raciocínio. Ao permitir que os modelos aprendam processos de pensamento úteis de forma independente, o TPO também pode habilitar assistentes de IA mais capazes e flexíveis em uma ampla gama de domínios.
Leia também:
Este post foi modificado pela última vez em %s = human-readable time difference 16:28
A startup de inteligência artificial (IA) Higgsfield acabou de apresentar o ReelMagic, uma plataforma multiagente…
A OpenAI acaba de anunciar uma expansão significativa do seu recurso de pesquisa ChatGPT no…
O Google acaba de anunciar o lançamento do Veo 2, um modelo de geração de…
A Pika Labs acaba de lançar a versão 2.0 de seu gerador de vídeo de…
A OpenAI lançou Projetos (Projects) para o ChatGPT no 7º dia de seu evento '12…
A Microsoft acaba de lançar o Phi-4, um modelo de linguagem de 14B parâmetros que…