A OpenAI é líder na corrida pela inteligência artificial superinteligente (AGI), mas enfrenta críticas crescentes sobre segurança. Ex-funcionários e fontes anônimas acusam a empresa de priorizar resultados em detrimento de testes de segurança rigorosos.
PUBLICIDADE
Um funcionário anônimo disse ao Washington Post: “Eles planejaram a festa de lançamento antes mesmo de saber se era seguro lançar [o produto].”
Essas preocupações não são isoladas. Recentemente, funcionários pediram publicamente mais segurança e transparência, e o time de segurança foi dissolvido após a saída de um cofundador.
A OpenAI afirma levar a segurança a sério e cita seu compromisso em ajudar outras organizações a lidar com riscos, mesmo de concorrentes. A empresa também mantém seus modelos fechados por motivos de segurança, o que gera debates.
PUBLICIDADE
“Estamos orgulhosos de fornecer os sistemas de IA mais seguros e capacitados”, disse uma porta-voz da OpenAI.
Especialistas alertam para os riscos potenciais da IA superinteligente. Um relatório dos EUA compara o impacto da IA ao da bomba atômica.
Em meio às críticas, a OpenAI anunciou parcerias para pesquisa segura em biociência e criou uma escala interna para acompanhar o progresso da IA.
PUBLICIDADE
Mas especialistas apontam que esses anúncios podem ser ações superficiais para lidar com a crise. O real problema é a falta de garantias para a sociedade fora do Vale do Silício.
“A IA pode ser revolucionária”, disse a presidente da FTC, Lina Khan, “mas o controle dessas ferramentas por poucas empresas é preocupante.”
Se as acusações sobre segurança estiverem corretas, a OpenAI pode não estar preparada para liderar o desenvolvimento da IA superinteligente. É urgente que a empresa priorize a transparência e a segurança para o bem da sociedade.
PUBLICIDADE
Leia também: