A OpenAI acaba de publicar uma nova pesquisa detalhando um método para tornar as saídas de grandes modelos de linguagem mais compreensíveis e verificáveis, utilizando um jogo entre duas IAs para tornar as gerações mais “legíveis” para humanos.
A técnica usa um “Jogo Provador-Verificador” onde um modelo de inteligência artificial mais forte (o provador) tenta convencer um modelo mais fraco (o verificador) de que suas respostas estão corretas. Através de múltiplas rodadas do jogo, o provador aprende a gerar soluções que não são apenas corretas, mas também mais fáceis de verificar. Embora o método tenha aumentado a precisão em apenas cerca de 50% em comparação com a otimização exclusiva para correção, suas soluções eram facilmente verificáveis por humanos. A OpenAI testou a abordagem em problemas matemáticos de ensino fundamental, com planos de expandir para domínios mais complexos no futuro.
A IA provavelmente superará os humanos em quase todas as capacidades no futuro – portanto, garantir que as saídas permaneçam interpretáveis para inteligências menores é crucial para segurança e confiança. Essa pesquisa oferece uma maneira escalável de potencialmente manter os sistemas “honestos”, mas o trade-off de desempenho mostra o desafio de equilibrar capacidade com explicabilidade.
Leia também:
Este post foi modificado pela última vez em 18 de julho de 2024 18:03
A startup de inteligência artificial (IA) Runway fez um nome para si mesma construindo modelos…
Golpistas estão usando a inteligência artificial (IA) para transformar seus vídeos de redes sociais em…
A 1X desenvolveu seu ‘World Model’, um simulador virtual alimentado por inteligência artificial (IA) para…
A Snap acaba de apresentar seus Spectacles de quinta geração, óculos AR autônomos alimentados pelo…
Um em cada cinco médicos de família (GPs) no Reino Unido está usando ferramentas de…
O governo Biden anunciou na quarta-feira (18) que realizará uma Cúpula Global de Segurança sobre…