A Anthropic lançou recentemente uma pesquisa inovadora que conseguiu identificar e mapear – com sucesso – milhões de conceitos interpretáveis por humanos, denominados “recursos”, dentro das redes neurais do modelo Claude.
Usando uma técnica chamada “aprendizado de dicionário“, os pesquisadores conseguiram isolar padrões que correspondiam a uma variedade de conceitos, desde objetos até ideias abstratas. Ajustando esses padrões, eles demonstraram a capacidade de influenciar os resultados gerados pelo modelo Claude, potencialmente abrindo caminho para sistemas mais controláveis.
Além disso, a equipe conseguiu mapear conceitos relacionados às preocupações de segurança da IA, como engano e busca de poder, oferecendo insights sobre como os modelos compreendem essas questões essenciais.
Leia também:
Este post foi modificado pela última vez em %s = human-readable time difference 17:03
O Google Gemini agora pode “lembrar” certas coisas sobre você, como seus interesses e preferências…
Um novo estudo do UVA Health System revelou que o ChatGPT-4 alcançou uma precisão diagnóstica…
A Perplexity acaba de lançar uma nova experiência de compra para seus usuários Pro nos…
A startup francesa de inteligência artificial (IA), Mistral, acaba de lançar o Pixtral Large, um…
Mustafa Suleyman, CEO de inteligência artificial (IA) da Microsoft, acabou de revelar que a empresa…
Cientistas do Instituto de Pesquisa Arc acabaram de apresentar o Evo, um modelo de inteligência…