A OpenAI dissolveu, na prática, sua equipe de segurança de inteligência artificial (IA), focada em riscos de longo prazo, após a saída dos líderes-chave Ilya Sutskever e Jan Leike na semana passada.
PUBLICIDADE
Entenda o que aconteceu
- A equipe de Superalinhamento, criada há menos de um ano para garantir a segurança de futuros sistemas de IA, será integrada a esforços de pesquisa mais amplos.
- Ilya e Leike pediram demissão na semana passada após meses de tensão – Leike citou desacordos sobre as prioridades centrais da empresa.
- Leike afirmou que a cultura e os processos de segurança ficaram em segundo plano em relação a “produtos chamativos”, e a OpenAI precisa se tornar uma “empresa de IAG (Inteligência Artificial Geral) que prioriza a segurança”.
- O presidente Greg Brockman publicou uma resposta às alegações de Leike no plataforma X, reiterando o compromisso da empresa com a segurança da IA.
Mais uma semana, mais drama na OpenAI. A dissolução da equipe de superalinhamento é polêmica – levanta sérias preocupações de grupos mais cautelosos de IA que desejam o foco na segurança, enquanto atrai aplausos daqueles que querem aceleração a qualquer custo.
Leia também: