Ex-funcionários e funcionários atuais de laboratórios de ponta em inteligência artificial (IA), incluindo OpenAI, Anthropic e DeepMind, acabam de publicar uma carta aberta pedindo que as empresas expandam as proteções para denunciantes. O objetivo é permitir que trabalhadores alertem sobre possíveis perigos da IA sem medo de retaliação.
O debate sobre segurança da IA está atingindo um ponto crítico, e há claramente uma grande divisão na indústria que transcende qualquer empresa ou pesquisador específico. Os princípios propostos parecem razoáveis e necessários, mas resta saber se os líderes de IA realmente ouvirão.
Leia também:
Este post foi modificado pela última vez em %s = human-readable time difference 12:42
O Google DeepMind acaba de apresentar o AlphaQubit, um sistema de inteligência artificial (IA) que…
Um código recém-descoberto na última versão beta do ChatGPT sugere que a OpenAI pode estar…
A empresa chinesa de pesquisa em inteligência artificial (IA), DeepSeek, acaba de lançar o R1-Lite-Preview,…
A OpenAI e a parceira sem fins lucrativos Common Sense Media lançaram um curso de…
Brett Adcock, CEO da Figure, postou uma atualização sobre os robôs humanoides da empresa trabalhando…
A Microsoft acaba de apresentar uma suíte de novos agentes de inteligência artificial (IA) especializados…