A Anthropic acaba de publicar um conjunto de novas avaliações destinadas a detectar potenciais capacidades de sabotagem em sistemas avançados de inteligência artificial (IA), focando em riscos que podem surgir se os modelos tentarem subverter a supervisão humana ou a tomada de decisões.
A pesquisa da Anthropic mostra que a IA não é muito boa em sabotar humanos… ainda. Mas as capacidades estão lá em alguma capacidade – e se a aceleração do modelo continuar como muitos pensam que será, é apenas uma questão de tempo antes que essas ameaças sejam reais e importantes de mitigar.
Leia também:
Este post foi modificado pela última vez em 21 de outubro de 2024 15:52
Em um mundo cada vez mais dominado pela inteligência artificial (IA), surge a pergunta: quais…
A News Corp, empresa-mãe de veículos de comunicação como The Wall Street Journal e The…
A Meta FAIR acaba de apresentar uma coleção de novos modelos e conjuntos de dados…
Pesquisadores da UCLA desenvolveram recentemente o SLIViT, um novo modelo de inteligência artificial (IA) que…
A OpenAI está testando um aplicativo ChatGPT para Windows, mas ele está disponível apenas para…
A Meta, proprietária do Facebook, anunciou na sexta-feira (18) o lançamento de um lote de…