OpenAI é atormentada por questões de segurança; entenda
Créditos da imagem: Curto News/Bing AI Creator

OpenAI é atormentada por questões de segurança; entenda

A OpenAI é líder na corrida pela inteligência artificial superinteligente (AGI), mas enfrenta críticas crescentes sobre segurança. Ex-funcionários e fontes anônimas acusam a empresa de priorizar resultados em detrimento de testes de segurança rigorosos.

PUBLICIDADE

Um funcionário anônimo disse ao Washington Post: “Eles planejaram a festa de lançamento antes mesmo de saber se era seguro lançar [o produto].”

Essas preocupações não são isoladas. Recentemente, funcionários pediram publicamente mais segurança e transparência, e o time de segurança foi dissolvido após a saída de um cofundador.

A OpenAI afirma levar a segurança a sério e cita seu compromisso em ajudar outras organizações a lidar com riscos, mesmo de concorrentes. A empresa também mantém seus modelos fechados por motivos de segurança, o que gera debates.

PUBLICIDADE

“Estamos orgulhosos de fornecer os sistemas de IA mais seguros e capacitados”, disse uma porta-voz da OpenAI.

Especialistas alertam para os riscos potenciais da IA superinteligente. Um relatório dos EUA compara o impacto da IA ao da bomba atômica.

Em meio às críticas, a OpenAI anunciou parcerias para pesquisa segura em biociência e criou uma escala interna para acompanhar o progresso da IA.

PUBLICIDADE

Mas especialistas apontam que esses anúncios podem ser ações superficiais para lidar com a crise. O real problema é a falta de garantias para a sociedade fora do Vale do Silício.

“A IA pode ser revolucionária”, disse a presidente da FTC, Lina Khan, “mas o controle dessas ferramentas por poucas empresas é preocupante.”

Se as acusações sobre segurança estiverem corretas, a OpenAI pode não estar preparada para liderar o desenvolvimento da IA superinteligente. É urgente que a empresa priorize a transparência e a segurança para o bem da sociedade.

PUBLICIDADE

Leia também:

Rolar para cima