A equipe será liderada por Aleksander Madry, ex-diretor do Centro de Aprendizado de Máquina Implantável do MIT. Seus objetivos principais são o monitoramento, a previsão e a mitigação de riscos potenciais representados pelos futuros sistemas de IA.
PUBLICIDADE
No comunicado oficial de lançamento da iniciativa, a OpenAI detalha o que espera identificar com esse novo braço da empresa:
- A capacidade dos sistemas de IA de enganar e enganar os seres humanos;
- A capacidade dos sistemas de IA de produzir códigos nocivos;
- Riscos relacionados com cenários químicos, biológicos, radiológicos e nucleares.
We are building a new Preparedness team to evaluate, forecast, and protect against the risks of highly-capable AI—from today's models to AGI.
— OpenAI (@OpenAI) October 26, 2023
Goal: a quantitative, evidence-based methodology, beyond what is accepted as possible: https://t.co/8lwtfMR1Iy
OpenAI também analisa riscos envolvendo ameaças biológicas e radiológicas
A OpenAI, após inúmeras pressões da comunidade internacional sobre os riscos da IA, passa a ter mais atenção ao potencial dos sistemas de IA de representar ameaças equivalentes aos perigos químicos, biológicos, radiológicos e nucleares. Além disso, a equipe também vai investigar o potencial de um ou mais riscos envolvendo IA se somarem a perigos já conhecidos da sociedade como ameaças biológicas e radiológicas.
Além da integração dessa nova equipe, a empresa está estimulando pesquisadores de todo o mundo a atuarem como fiscalizadores de IA, oferecendo premiações e bônus para quem auxiliar nesse novo momento da empresa investigando possíveis danos causados pela tecnologia a sociedade. Para saber mais sobre a iniciativa, clique aqui.
PUBLICIDADE
Veja também: