Os pesquisadores da Universidade de Stanford acabaram de desenvolver o Quiet-STaR, um novo método de treinamento que permite aos modelos de IA gerar um monólogo interno, ou “pensar” antes de responder.
O Quiet-STaR treina a inteligência artificial para gerar “pensamentos” ou justificativas alternativas antes de responder às solicitações, produzindo uma combinação de previsões com e sem esses fundamentos.
Esse processo permite que o modelo aprenda ao descartar pensamentos irrelevantes. Quando implementado junto ao modelo de linguagem Mistral 7B, o Quiet-STaR quase dobrou sua pontuação em benchmarks de matemática e raciocínio de bom senso.
Assim como os humanos – parece que pensar antes de falar é uma boa lição para aplicar também aos modelos de inteligência artificial. Pesquisas como a Quiet-STaR mostram que dar à IA o poder de resolver desafios, considerar alternativas e aprender com os erros é um caminho forte para sistemas mais adaptáveis.
Leia também:
Este post foi modificado pela última vez em %s = human-readable time difference 13:55
O Google DeepMind acaba de apresentar o AlphaQubit, um sistema de inteligência artificial (IA) que…
Um código recém-descoberto na última versão beta do ChatGPT sugere que a OpenAI pode estar…
A empresa chinesa de pesquisa em inteligência artificial (IA), DeepSeek, acaba de lançar o R1-Lite-Preview,…
A OpenAI e a parceira sem fins lucrativos Common Sense Media lançaram um curso de…
Brett Adcock, CEO da Figure, postou uma atualização sobre os robôs humanoides da empresa trabalhando…
A Microsoft acaba de apresentar uma suíte de novos agentes de inteligência artificial (IA) especializados…