A OpenAI anunciou na última semana a formação de uma nova equipe dedicada a avaliar e preparar contra riscos catastróficos associados aos sistemas de IA. Entenda o que isso significa.
A equipe será liderada por Aleksander Madry, ex-diretor do Centro de Aprendizado de Máquina Implantável do MIT. Seus objetivos principais são o monitoramento, a previsão e a mitigação de riscos potenciais representados pelos futuros sistemas de IA.
No comunicado oficial de lançamento da iniciativa, a OpenAI detalha o que espera identificar com esse novo braço da empresa:
A OpenAI, após inúmeras pressões da comunidade internacional sobre os riscos da IA, passa a ter mais atenção ao potencial dos sistemas de IA de representar ameaças equivalentes aos perigos químicos, biológicos, radiológicos e nucleares. Além disso, a equipe também vai investigar o potencial de um ou mais riscos envolvendo IA se somarem a perigos já conhecidos da sociedade como ameaças biológicas e radiológicas.
Além da integração dessa nova equipe, a empresa está estimulando pesquisadores de todo o mundo a atuarem como fiscalizadores de IA, oferecendo premiações e bônus para quem auxiliar nesse novo momento da empresa investigando possíveis danos causados pela tecnologia a sociedade. Para saber mais sobre a iniciativa, clique aqui.
Veja também:
Este post foi modificado pela última vez em %s = human-readable time difference 15:36
O Google DeepMind acaba de anunciar uma parceria estratégica com a Apptronik, uma empresa de…
Uma equipe de pesquisadores de 20 laboratórios diferentes acaba de apresentar o Genesis, um motor…
O Google acabou de lançar o que está chamando de um novo modelo de inteligência…
A GitHub, de propriedade da Microsoft, acaba de anunciar um nível gratuito de seu Copilot…
A OpenAI acaba de lançar uma nova maneira surpreendente de acessar o ChatGPT - através…
O Google DeepMind acaba de lançar o FACTS Grounding, um novo benchmark projetado para avaliar…