Inteligência Artificial

Segurança em IA em risco? Pesquisador da OpenAI pede demissão e critica priorização de “produtos bonitos”

Publicado por
Isabella Caminoto

Um ex-funcionário sênior da OpenAI, empresa criadora do ChatGPT, acusou a companhia de priorizar “produtos chamativos” em detrimento da segurança. Jan Leike, que era co-líder da equipe de superinteligência e responsável por garantir que sistemas de inteligência artificial (IA) poderosos sigam valores humanos, revelou ter saído da empresa após um desentendimento sobre objetivos principais ter chegado a um “ponto de ruptura”.

A renúncia de Leike acontece às vésperas de uma cúpula global de inteligência artificial em Seul, onde políticos, especialistas e executivos de tecnologia discutirão a supervisão dessa tecnologia.

A saída de Leike se soma à de Ilya Sutskever, cofundador da OpenAI e co-líder da equipe de superinteligência, que também deixou a empresa recentemente, poucos dias após o lançamento do mais recente modelo de inteligência artificial da OpenAI, o GPT-4o.

Em um post na plataforma X, Leike detalhou as razões para sua saída, afirmando que a cultura de segurança se tornou menos prioritária. “Nos últimos anos, a cultura e os processos de segurança perderam espaço para produtos chamativos”, escreveu ele.

A OpenAI foi fundada com o objetivo de garantir que a inteligência artificial geral, descrita como “sistemas de IA que geralmente são mais inteligentes que os humanos”, beneficie toda a humanidade. Segundo Leike, ele vinha discordando da liderança da OpenAI sobre as prioridades da empresa há algum tempo, mas esse impasse finalmente “atingiu um ponto de ruptura”.

Leike acredita que a OpenAI, que também desenvolveu o gerador de imagens Dall-E e o gerador de vídeos Sora, deveria investir mais recursos em questões como segurança, impacto social, confidencialidade e proteção para sua próxima geração de modelos. “Esses problemas são muito difíceis de acertar, e estou preocupado que não estejamos no caminho certo para resolvê-los”, escreveu ele, acrescentando que estava ficando “cada vez mais difícil” para sua equipe realizar suas pesquisas.

“Construir máquinas mais inteligentes que os humanos é um empreendimento inerentemente perigoso. A OpenAI carrega uma enorme responsabilidade em nome de toda a humanidade”, escreveu Leike, acrescentando que a empresa “deve se tornar uma companhia de IAG priorizando a segurança”.

Sam Altman, CEO da OpenAI, respondeu ao post de Leike na plataforma X agradecendo ao ex-colega por suas contribuições à cultura de segurança da empresa. “Ele está certo, temos muito mais a fazer; estamos comprometidos em fazer isso”, escreveu Altman.

Sutskever, que também era o cientista-chefe da OpenAI, disse em seu post no X anunciando sua saída que estava confiante de que a OpenAI “construirá uma IAG segura e benéfica” sob sua liderança atual. É importante destacar que Sutskever inicialmente apoiou a remoção de Altman como chefe da OpenAI em novembro passado, antes de voltar atrás e apoiá-lo novamente após dias de tumulto interno na empresa.

A advertência de Leike ocorre no mesmo momento em que um painel internacional de especialistas em IA divulgou um relatório inaugural sobre segurança em IA, que aponta a existência de desacordo sobre a probabilidade de sistemas de IA poderosos escaparem do controle humano. No entanto, o relatório alerta que os reguladores podem ficar para trás devido aos rápidos avanços na tecnologia, alertando para a “potencial disparidade entre o ritmo do progresso tecnológico e o ritmo de uma resposta regulatória”.

Leia também:

Este post foi modificado pela última vez em %s = human-readable time difference 16:49

Isabella Caminoto

Advogada e mestranda em Direito Internacional, tenho a democracia e a liberdade como bandeiras irrenunciáveis. Sou apaixonada pelos animais e acredito que o bem-estar do nosso planeta deveria ser o destaque diário da pauta da nossa sociedade.

Posts recentes

Google se associa à Apptronik para desenvolver robôs humanoides

O Google DeepMind acaba de anunciar uma parceria estratégica com a Apptronik, uma empresa de…

20 de dezembro de 2024

Genesis: Um novo patamar para simulações físicas em IA

Uma equipe de pesquisadores de 20 laboratórios diferentes acaba de apresentar o Genesis, um motor…

20 de dezembro de 2024

Google lança seu próprio modelo de IA de “raciocínio”

O Google acabou de lançar o que está chamando de um novo modelo de inteligência…

19 de dezembro de 2024

GitHub Copilot agora é gratuito

A GitHub, de propriedade da Microsoft, acaba de anunciar um nível gratuito de seu Copilot…

19 de dezembro de 2024

ChatGPT ganha um novo número de telefone; veja

A OpenAI acaba de lançar uma nova maneira surpreendente de acessar o ChatGPT - através…

19 de dezembro de 2024

Google lança novo benchmark para testar a factualidade de LLMs

O Google DeepMind acaba de lançar o FACTS Grounding, um novo benchmark projetado para avaliar…

18 de dezembro de 2024