Pesquisadores descobriram que adicionar uma simples instrução “seja conciso” a prompts de “cadeia de pensamento” pode reduzir a extensão das respostas de inteligência artificial (IA) em 50%, com impacto mínimo na precisão. Isso leva a uma economia de mais de 20% nos custos de chamadas de API.
O prompt “cadeia de pensamento” (CoT) faz com que a IA explique seu raciocínio passo a passo antes de fornecer uma resposta final, melhorando a precisão em problemas complexos.
Os pesquisadores testaram o acréscimo de “seja conciso” a prompts CoT nos modelos GPT-3.5 e 4, usando 1.000 questões de múltipla escolha em 10 tópicos diferentes.
A instrução tornou as respostas cerca de 50% mais curtas, em média, em comparação com prompts CoT normais, sem impacto significativo na precisão.
A abordagem também reduziu os custos de API por consulta em mais de 20% para ambos os modelos, já que prompts mais concisos geram menos tokens.
Da próxima vez que seu chatbot de IA ficar prolixo, esse truque simples de prompt é tudo o que você precisa! Apesar das complexidades e incertezas em torno do funcionamento dos grandes modelos de linguagem (LLMs), às vezes essas peculiaridades aparentemente básicas fazem toda a diferença para obter resultados otimizados.
Leia também:
Este post foi modificado pela última vez em 10 de junho de 2024 21:53
Arqueólogos da Universidade de Yamagata, no Japão, em colaboração com a IBM Research, utilizaram inteligência…
O Google acaba de atualizar sua ferramenta NotebookLM, adicionando suporte para vídeos do YouTube e…
O regulador de concorrência da Grã-Bretanha disse na sexta-feira (27) que a parceria de inteligência…
O Google DeepMind acaba de apresentar o AlphaChip, um sistema de inteligência artificial (IA) que…
Pesquisadores da Harvard Medical School desenvolveram recentemente um modelo de IA chamado TxGNN que pode…
A Qure.AI, startup indiana, afirma que suas soluções de inteligência artificial (IA) superam radiologistas e…