A Anthropic lançou recentemente uma pesquisa inovadora que conseguiu identificar e mapear – com sucesso – milhões de conceitos interpretáveis por humanos, denominados “recursos”, dentro das redes neurais do modelo Claude.
Usando uma técnica chamada “aprendizado de dicionário“, os pesquisadores conseguiram isolar padrões que correspondiam a uma variedade de conceitos, desde objetos até ideias abstratas. Ajustando esses padrões, eles demonstraram a capacidade de influenciar os resultados gerados pelo modelo Claude, potencialmente abrindo caminho para sistemas mais controláveis.
Além disso, a equipe conseguiu mapear conceitos relacionados às preocupações de segurança da IA, como engano e busca de poder, oferecendo insights sobre como os modelos compreendem essas questões essenciais.
Leia também:
Este post foi modificado pela última vez em 22 de maio de 2024 17:03
Com a vitória de Donald Trump na presidência e o controle do Senado pelos republicanos,…
A Tencent acaba de lançar o Hunyuan-Large, um novo modelo de linguagem de código aberto…
A Apple está supostamente dando seus primeiros passos sérios em direção ao desenvolvimento de óculos…
A Apple acaba de começar a lançar novas ferramentas para desenvolvedores para os próximos recursos de reconhecimento…
A startup de inteligência artificial (IA) Physical Intelligence acaba de conseguir US$ 400 milhões em investimentos liderados…
A Anthropic acabou de lançar seu modelo Claude 3.5 Haiku, oferecendo novas melhorias no uso…