Pesquisadores da Universidade de Oxford e da Cohere acabaram de desenvolver o TICK, uma nova abordagem para avaliar modelos de linguagem de inteligência artificial (IA) que usam listas de verificação geradas por IA para melhorar a precisão e interpretabilidade da avaliação.
O TICK usa um modelo de IA para gerar uma lista de verificação de perguntas sim/não para avaliar quão bem outro modelo de IA seguiu uma determinada instrução. O método baseado em lista de verificação mostrou 5,8% de maior concordância com avaliadores humanos do que as técnicas padrão de avaliação de IA.
Os pesquisadores também desenvolveram o STICK (Self-TICK), que usa as listas de verificação para auto-aperfeiçoamento, levando a um desempenho 7,8% melhor em tarefas de raciocínio. O TICK pode ser totalmente automatizado, tornando-o mais rápido e barato do que as avaliações baseadas em listas de verificação que requerem entrada humana.
LLMs são estranhos – e às vezes até mesmo simples peculiaridades de formatação (lembra-se do prompt “respire fundo”?) podem levar a resultados inesperados. Ao procurar novas técnicas para aproveitar ao máximo os modelos e avaliações de IA, talvez seja ideal retornar aos fundamentos da organização e aprendizado humanos.
Leia também:
Este post foi modificado pela última vez em 8 de outubro de 2024 15:14
Da próxima vez que você rolar seu feed do Instagram e Facebook, poderá ver um…
A Uber Technologies lançará um assistente de inteligência artificial (IA) alimentado pela tecnologia da OpenAI…
A Adobe anunciou na terça-feira (8) que oferecerá um aplicativo gratuito baseado na web a…
A Inflection AI acaba de lançar o Inflection for Enterprise, um novo sistema construído em…
Dois estudantes de Harvard demonstraram recentemente um sistema de prova de conceito usando os óculos…
O Google anunciou que usuários selecionados do Gmail no iOS agora podem conversar com o…