Modelos de linguagem grandes (LLMs) podem raciocinar por analogia mesmo sem treinamento, aponta estudo

Um estudo realizado pelo Laboratório de Visão e Aprendizagem Computacional da Universidade da Califórnia descobriu que os modelos de linguagem grandes (LLMs) são capazes de raciocínio por analogia. A pesquisa foi divulgada na revista Nature Human Behavior no fim do mês passado.

Publicado por
Uesley Durães

O raciocínio analógico é a capacidade de comparar duas coisas e identificar semelhanças entre elas. Esta é uma habilidade cognitiva essencial que os humanos usam para aprender e resolver problemas.

O estudo descobriu que os LLMs podem usar o raciocínio analógico para aprender novas tarefas, mesmo quando não são diretamente treinados para essas tarefas. Por exemplo, o estudo mostrou que um modelo de linguagem pode aprender a jogar o jogo de damas, mesmo que não tenha sido treinado especificamente para jogar damas. 

O que é um modelo de linguagem grande (LLM)? | Glossário do Newsverso

O LLM fez isso observando como os humanos jogam damas e identificando semelhanças entre o jogo de damas e outros jogos que o LLM já havia aprendido.

O estudo também descobriu que os LLMs podem usar o raciocínio analógico para resolver problemas que são novos ou desafiadores. Por exemplo, um modelo pode ser usado para diagnosticar doenças, mesmo que não tenha sido treinado especificamente para diagnosticar doenças. O modelo fez isso observando os sintomas de pacientes e identificando semelhanças entre os sintomas dos pacientes e os sintomas de doenças que o LLM já havia aprendido.

Este estudo é um marco importante no desenvolvimento da inteligência artificial. Ele sugere que os LLMs podem ser usados para automatizar tarefas que atualmente são realizadas por humanos e que eles podem ser usados para resolver problemas que são novos ou desafiadores. 

Além disso, o estudo também tem implicações importantes para o campo da inteligência artificial. Ele sugere que os LLMs podem ser usados para criar sistemas de IA que são capazes de aprender e resolver problemas de uma forma semelhante aos humanos. Isso pode levar ao desenvolvimento de sistemas de IA que podem ser usados para uma ampla gama de tarefas, desde a tomada de decisões até o diagnóstico médico. Para conferir detalhes levantados pelos pesquisadores, clique aqui.

Veja também:

Este post foi modificado pela última vez em %s = human-readable time difference 18:17

Uesley Durães

Posts recentes

Google se associa à Apptronik para desenvolver robôs humanoides

O Google DeepMind acaba de anunciar uma parceria estratégica com a Apptronik, uma empresa de…

20 de dezembro de 2024

Genesis: Um novo patamar para simulações físicas em IA

Uma equipe de pesquisadores de 20 laboratórios diferentes acaba de apresentar o Genesis, um motor…

20 de dezembro de 2024

Google lança seu próprio modelo de IA de “raciocínio”

O Google acabou de lançar o que está chamando de um novo modelo de inteligência…

19 de dezembro de 2024

GitHub Copilot agora é gratuito

A GitHub, de propriedade da Microsoft, acaba de anunciar um nível gratuito de seu Copilot…

19 de dezembro de 2024

ChatGPT ganha um novo número de telefone; veja

A OpenAI acaba de lançar uma nova maneira surpreendente de acessar o ChatGPT - através…

19 de dezembro de 2024

Google lança novo benchmark para testar a factualidade de LLMs

O Google DeepMind acaba de lançar o FACTS Grounding, um novo benchmark projetado para avaliar…

18 de dezembro de 2024