Inteligência Artificial

Nova técnica detecta e elimina alucinações e garante respostas verdadeiras em IA

Publicado por
Isabella Caminoto

Pesquisadores da Universidade de Oxford desenvolveram um método para identificar quando um modelo de linguagem artificial (IA) corre o risco de “alucinar”, gerando respostas falsas ou imprecisas, segundo novo estudo publicado na revista Nature.

O termo “alucinação” em IA se refere àquelas saídas aparentemente convincentes, mas incorretas, produzidas por modelos de linguagem grandes (LLMs) como o GPT-3 da OpenAI ou o Claude da Anthropic. Essas falhas podem ser particularmente problemáticas em áreas como medicina, notícias e questões jurídicas.

“Alucinação é uma categoria ampla que pode significar quase qualquer tipo de erro de um LLM. Nosso foco está em casos onde o LLM erra sem motivo aparente, e não por ter sido treinado com dados ruins”, explica o Dr. Sebastian Farquhar, do Departamento de Ciência da Computação da Universidade de Oxford.

“Abordagens anteriores não diferenciavam a incerteza do modelo sobre o que dizer da incerteza sobre como dizer. Nosso método supera essa limitação”, acrescenta Farquhar.

A nova técnica mede a incerteza ou variabilidade no significado das saídas por meio da entropia semântica. Ou seja, analisa a incerteza no significado das respostas, e não apenas a sequência de palavras.

Por exemplo, se um LLM recebe uma pergunta e gera várias respostas possíveis, a entropia semântica avalia o quão diferentes esses significados são entre si. Entropia baixa indica alta confiança no sentido pretendido, enquanto entropia alta indica incerteza sobre o significado correto.

“Ao pedir a um LLM para responder a uma pergunta várias vezes, podemos comparar as respostas entre si”, diz Farquhar. “Antigamente, não se considerava o fato de que a linguagem natural permite dizer a mesma coisa de várias maneiras. Isso difere de outras situações de aprendizado de máquina onde as saídas do modelo são inequívocas”.

Testada em seis LLMs, incluindo GPT-4 e LaMDA 2, a nova técnica se mostrou mais eficaz na identificação de perguntas propensas a gerar respostas falsas, como pesquisas do Google, questões biomédicas técnicas e problemas matemáticos.

Embora exija mais recursos computacionais que a geração simples de texto, a técnica oferece um avanço crucial. “Obter respostas dos LLMs é barato, mas a confiabilidade é o maior gargalo. Em situações onde a precisão é crítica, calcular a incerteza semântica é um preço ínfimo”, conclui o Professor Yarin Gal, autor sênior do estudo.

A alucinação é uma das principais críticas aos LLMs. O Google recentemente desativou seu recurso de Visão Geral de IA após enfrentar reações negativas devido a respostas enganosas.

Leia também:

Este post foi modificado pela última vez em %s = human-readable time difference 12:41

Isabella Caminoto

Advogada e mestranda em Direito Internacional, tenho a democracia e a liberdade como bandeiras irrenunciáveis. Sou apaixonada pelos animais e acredito que o bem-estar do nosso planeta deveria ser o destaque diário da pauta da nossa sociedade.

Posts recentes

DeepMind dá um salto gigante na computação quântica com o AlphaQubit

O Google DeepMind acaba de apresentar o AlphaQubit, um sistema de inteligência artificial (IA) que…

21 de novembro de 2024

ChatGPT está mais perto de lançar sua IA visual

Um código recém-descoberto na última versão beta do ChatGPT sugere que a OpenAI pode estar…

21 de novembro de 2024

DeepSeek revela poderosa IA de raciocínio; veja

A empresa chinesa de pesquisa em inteligência artificial (IA), DeepSeek, acaba de lançar o R1-Lite-Preview,…

21 de novembro de 2024

OpenAI lança curso gratuito de IA para professores

A OpenAI e a parceira sem fins lucrativos Common Sense Media lançaram um curso de…

20 de novembro de 2024

Robôs da Figure transformam produção da BMW; saiba como

Brett Adcock, CEO da Figure, postou uma atualização sobre os robôs humanoides da empresa trabalhando…

20 de novembro de 2024

Microsoft revela agentes de IA especializados e ferramentas de automação

A Microsoft acaba de apresentar uma suíte de novos agentes de inteligência artificial (IA) especializados…

20 de novembro de 2024