Pesquisadores descobriram que adicionar uma simples instrução “seja conciso” a prompts de “cadeia de pensamento” pode reduzir a extensão das respostas de inteligência artificial (IA) em 50%, com impacto mínimo na precisão. Isso leva a uma economia de mais de 20% nos custos de chamadas de API.
O prompt “cadeia de pensamento” (CoT) faz com que a IA explique seu raciocínio passo a passo antes de fornecer uma resposta final, melhorando a precisão em problemas complexos.
Os pesquisadores testaram o acréscimo de “seja conciso” a prompts CoT nos modelos GPT-3.5 e 4, usando 1.000 questões de múltipla escolha em 10 tópicos diferentes.
A instrução tornou as respostas cerca de 50% mais curtas, em média, em comparação com prompts CoT normais, sem impacto significativo na precisão.
A abordagem também reduziu os custos de API por consulta em mais de 20% para ambos os modelos, já que prompts mais concisos geram menos tokens.
Da próxima vez que seu chatbot de IA ficar prolixo, esse truque simples de prompt é tudo o que você precisa! Apesar das complexidades e incertezas em torno do funcionamento dos grandes modelos de linguagem (LLMs), às vezes essas peculiaridades aparentemente básicas fazem toda a diferença para obter resultados otimizados.
Leia também:
Este post foi modificado pela última vez em %s = human-readable time difference 21:53
O Google DeepMind acaba de apresentar o AlphaQubit, um sistema de inteligência artificial (IA) que…
Um código recém-descoberto na última versão beta do ChatGPT sugere que a OpenAI pode estar…
A empresa chinesa de pesquisa em inteligência artificial (IA), DeepSeek, acaba de lançar o R1-Lite-Preview,…
A OpenAI e a parceira sem fins lucrativos Common Sense Media lançaram um curso de…
Brett Adcock, CEO da Figure, postou uma atualização sobre os robôs humanoides da empresa trabalhando…
A Microsoft acaba de apresentar uma suíte de novos agentes de inteligência artificial (IA) especializados…