A OpenAI anunciou na última semana a formação de uma nova equipe dedicada a avaliar e preparar contra riscos catastróficos associados aos sistemas de IA. Entenda o que isso significa.
A equipe será liderada por Aleksander Madry, ex-diretor do Centro de Aprendizado de Máquina Implantável do MIT. Seus objetivos principais são o monitoramento, a previsão e a mitigação de riscos potenciais representados pelos futuros sistemas de IA.
No comunicado oficial de lançamento da iniciativa, a OpenAI detalha o que espera identificar com esse novo braço da empresa:
A OpenAI, após inúmeras pressões da comunidade internacional sobre os riscos da IA, passa a ter mais atenção ao potencial dos sistemas de IA de representar ameaças equivalentes aos perigos químicos, biológicos, radiológicos e nucleares. Além disso, a equipe também vai investigar o potencial de um ou mais riscos envolvendo IA se somarem a perigos já conhecidos da sociedade como ameaças biológicas e radiológicas.
Além da integração dessa nova equipe, a empresa está estimulando pesquisadores de todo o mundo a atuarem como fiscalizadores de IA, oferecendo premiações e bônus para quem auxiliar nesse novo momento da empresa investigando possíveis danos causados pela tecnologia a sociedade. Para saber mais sobre a iniciativa, clique aqui.
Veja também:
Este post foi modificado pela última vez em %s = human-readable time difference 15:36
Um novo estudo de pesquisadores da Universidade de Pittsburgh acabou de revelar que a inteligência…
O TikTok acaba de lançar o Symphony Creative Studio, uma plataforma de geração de vídeo…
A OpenAI acabou de lançar uma atualização para seu aplicativo de desktop que permite ao…
A OpenAI acaba de apresentar um plano abrangente para a infraestrutura de inteligência artificial (IA))…
Pesquisadores de Stanford acabaram de apresentar o Virtual Lab, uma plataforma de pesquisa de inteligência…
A OpenAI está planejando lançar o 'Operator' em janeiro, uma nova ferramenta de inteligência artificial…