Pesquisadores descobriram que adicionar uma simples instrução “seja conciso” a prompts de “cadeia de pensamento” pode reduzir a extensão das respostas de inteligência artificial (IA) em 50%, com impacto mínimo na precisão. Isso leva a uma economia de mais de 20% nos custos de chamadas de API.
O prompt “cadeia de pensamento” (CoT) faz com que a IA explique seu raciocínio passo a passo antes de fornecer uma resposta final, melhorando a precisão em problemas complexos.
Os pesquisadores testaram o acréscimo de “seja conciso” a prompts CoT nos modelos GPT-3.5 e 4, usando 1.000 questões de múltipla escolha em 10 tópicos diferentes.
A instrução tornou as respostas cerca de 50% mais curtas, em média, em comparação com prompts CoT normais, sem impacto significativo na precisão.
A abordagem também reduziu os custos de API por consulta em mais de 20% para ambos os modelos, já que prompts mais concisos geram menos tokens.
Da próxima vez que seu chatbot de IA ficar prolixo, esse truque simples de prompt é tudo o que você precisa! Apesar das complexidades e incertezas em torno do funcionamento dos grandes modelos de linguagem (LLMs), às vezes essas peculiaridades aparentemente básicas fazem toda a diferença para obter resultados otimizados.
Leia também:
Este post foi modificado pela última vez em %s = human-readable time difference 21:53
O Google DeepMind acaba de anunciar uma parceria estratégica com a Apptronik, uma empresa de…
Uma equipe de pesquisadores de 20 laboratórios diferentes acaba de apresentar o Genesis, um motor…
O Google acabou de lançar o que está chamando de um novo modelo de inteligência…
A GitHub, de propriedade da Microsoft, acaba de anunciar um nível gratuito de seu Copilot…
A OpenAI acaba de lançar uma nova maneira surpreendente de acessar o ChatGPT - através…
O Google DeepMind acaba de lançar o FACTS Grounding, um novo benchmark projetado para avaliar…