OpenAI forma equipe para avaliar riscos catastróficos de sistemas de IA; entenda como será atuação

A OpenAI anunciou na última semana a formação de uma nova equipe dedicada a avaliar e preparar contra riscos catastróficos associados aos sistemas de IA. Entenda o que isso significa.

A equipe será liderada por Aleksander Madry, ex-diretor do Centro de Aprendizado de Máquina Implantável do MIT. Seus objetivos principais são o monitoramento, a previsão e a mitigação de riscos potenciais representados pelos futuros sistemas de IA.

PUBLICIDADE

No comunicado oficial de lançamento da iniciativa, a OpenAI detalha o que espera identificar com esse novo braço da empresa:

  • A capacidade dos sistemas de IA de enganar e enganar os seres humanos;
  • A capacidade dos sistemas de IA de produzir códigos nocivos;
  • Riscos relacionados com cenários químicos, biológicos, radiológicos e nucleares.

OpenAI também analisa riscos envolvendo ameaças biológicas e radiológicas

A OpenAI, após inúmeras pressões da comunidade internacional sobre os riscos da IA, passa a ter mais atenção ao potencial dos sistemas de IA de representar ameaças equivalentes aos perigos químicos, biológicos, radiológicos e nucleares. Além disso, a equipe também vai investigar o potencial de um ou mais riscos envolvendo IA se somarem a perigos já conhecidos da sociedade como ameaças biológicas e radiológicas.

Além da integração dessa nova equipe, a empresa está estimulando pesquisadores de todo o mundo a atuarem como fiscalizadores de IA, oferecendo premiações e bônus para quem auxiliar nesse novo momento da empresa investigando possíveis danos causados pela tecnologia a sociedade. Para saber mais sobre a iniciativa, clique aqui.

PUBLICIDADE

Veja também:

Rolar para cima