Inteligência Artificial

Segurança em IA em risco? Pesquisador da OpenAI pede demissão e critica priorização de “produtos bonitos”

Publicado por
Isabella Caminoto

Um ex-funcionário sênior da OpenAI, empresa criadora do ChatGPT, acusou a companhia de priorizar “produtos chamativos” em detrimento da segurança. Jan Leike, que era co-líder da equipe de superinteligência e responsável por garantir que sistemas de inteligência artificial (IA) poderosos sigam valores humanos, revelou ter saído da empresa após um desentendimento sobre objetivos principais ter chegado a um “ponto de ruptura”.

A renúncia de Leike acontece às vésperas de uma cúpula global de inteligência artificial em Seul, onde políticos, especialistas e executivos de tecnologia discutirão a supervisão dessa tecnologia.

A saída de Leike se soma à de Ilya Sutskever, cofundador da OpenAI e co-líder da equipe de superinteligência, que também deixou a empresa recentemente, poucos dias após o lançamento do mais recente modelo de inteligência artificial da OpenAI, o GPT-4o.

Em um post na plataforma X, Leike detalhou as razões para sua saída, afirmando que a cultura de segurança se tornou menos prioritária. “Nos últimos anos, a cultura e os processos de segurança perderam espaço para produtos chamativos”, escreveu ele.

A OpenAI foi fundada com o objetivo de garantir que a inteligência artificial geral, descrita como “sistemas de IA que geralmente são mais inteligentes que os humanos”, beneficie toda a humanidade. Segundo Leike, ele vinha discordando da liderança da OpenAI sobre as prioridades da empresa há algum tempo, mas esse impasse finalmente “atingiu um ponto de ruptura”.

Leike acredita que a OpenAI, que também desenvolveu o gerador de imagens Dall-E e o gerador de vídeos Sora, deveria investir mais recursos em questões como segurança, impacto social, confidencialidade e proteção para sua próxima geração de modelos. “Esses problemas são muito difíceis de acertar, e estou preocupado que não estejamos no caminho certo para resolvê-los”, escreveu ele, acrescentando que estava ficando “cada vez mais difícil” para sua equipe realizar suas pesquisas.

“Construir máquinas mais inteligentes que os humanos é um empreendimento inerentemente perigoso. A OpenAI carrega uma enorme responsabilidade em nome de toda a humanidade”, escreveu Leike, acrescentando que a empresa “deve se tornar uma companhia de IAG priorizando a segurança”.

Sam Altman, CEO da OpenAI, respondeu ao post de Leike na plataforma X agradecendo ao ex-colega por suas contribuições à cultura de segurança da empresa. “Ele está certo, temos muito mais a fazer; estamos comprometidos em fazer isso”, escreveu Altman.

Sutskever, que também era o cientista-chefe da OpenAI, disse em seu post no X anunciando sua saída que estava confiante de que a OpenAI “construirá uma IAG segura e benéfica” sob sua liderança atual. É importante destacar que Sutskever inicialmente apoiou a remoção de Altman como chefe da OpenAI em novembro passado, antes de voltar atrás e apoiá-lo novamente após dias de tumulto interno na empresa.

A advertência de Leike ocorre no mesmo momento em que um painel internacional de especialistas em IA divulgou um relatório inaugural sobre segurança em IA, que aponta a existência de desacordo sobre a probabilidade de sistemas de IA poderosos escaparem do controle humano. No entanto, o relatório alerta que os reguladores podem ficar para trás devido aos rápidos avanços na tecnologia, alertando para a “potencial disparidade entre o ritmo do progresso tecnológico e o ritmo de uma resposta regulatória”.

Leia também:

Este post foi modificado pela última vez em %s = human-readable time difference 16:49

Isabella Caminoto

Advogada e mestranda em Direito Internacional, tenho a democracia e a liberdade como bandeiras irrenunciáveis. Sou apaixonada pelos animais e acredito que o bem-estar do nosso planeta deveria ser o destaque diário da pauta da nossa sociedade.

Posts recentes

DeepMind dá um salto gigante na computação quântica com o AlphaQubit

O Google DeepMind acaba de apresentar o AlphaQubit, um sistema de inteligência artificial (IA) que…

21 de novembro de 2024

ChatGPT está mais perto de lançar sua IA visual

Um código recém-descoberto na última versão beta do ChatGPT sugere que a OpenAI pode estar…

21 de novembro de 2024

DeepSeek revela poderosa IA de raciocínio; veja

A empresa chinesa de pesquisa em inteligência artificial (IA), DeepSeek, acaba de lançar o R1-Lite-Preview,…

21 de novembro de 2024

OpenAI lança curso gratuito de IA para professores

A OpenAI e a parceira sem fins lucrativos Common Sense Media lançaram um curso de…

20 de novembro de 2024

Robôs da Figure transformam produção da BMW; saiba como

Brett Adcock, CEO da Figure, postou uma atualização sobre os robôs humanoides da empresa trabalhando…

20 de novembro de 2024

Microsoft revela agentes de IA especializados e ferramentas de automação

A Microsoft acaba de apresentar uma suíte de novos agentes de inteligência artificial (IA) especializados…

20 de novembro de 2024