Um ex-funcionário sênior da OpenAI, empresa criadora do ChatGPT, acusou a companhia de priorizar “produtos chamativos” em detrimento da segurança. Jan Leike, que era co-líder da equipe de superinteligência e responsável por garantir que sistemas de inteligência artificial (IA) poderosos sigam valores humanos, revelou ter saído da empresa após um desentendimento sobre objetivos principais ter chegado a um “ponto de ruptura”.
A renúncia de Leike acontece às vésperas de uma cúpula global de inteligência artificial em Seul, onde políticos, especialistas e executivos de tecnologia discutirão a supervisão dessa tecnologia.
A saída de Leike se soma à de Ilya Sutskever, cofundador da OpenAI e co-líder da equipe de superinteligência, que também deixou a empresa recentemente, poucos dias após o lançamento do mais recente modelo de inteligência artificial da OpenAI, o GPT-4o.
Em um post na plataforma X, Leike detalhou as razões para sua saída, afirmando que a cultura de segurança se tornou menos prioritária. “Nos últimos anos, a cultura e os processos de segurança perderam espaço para produtos chamativos”, escreveu ele.
A OpenAI foi fundada com o objetivo de garantir que a inteligência artificial geral, descrita como “sistemas de IA que geralmente são mais inteligentes que os humanos”, beneficie toda a humanidade. Segundo Leike, ele vinha discordando da liderança da OpenAI sobre as prioridades da empresa há algum tempo, mas esse impasse finalmente “atingiu um ponto de ruptura”.
Leike acredita que a OpenAI, que também desenvolveu o gerador de imagens Dall-E e o gerador de vídeos Sora, deveria investir mais recursos em questões como segurança, impacto social, confidencialidade e proteção para sua próxima geração de modelos. “Esses problemas são muito difíceis de acertar, e estou preocupado que não estejamos no caminho certo para resolvê-los”, escreveu ele, acrescentando que estava ficando “cada vez mais difícil” para sua equipe realizar suas pesquisas.
“Construir máquinas mais inteligentes que os humanos é um empreendimento inerentemente perigoso. A OpenAI carrega uma enorme responsabilidade em nome de toda a humanidade”, escreveu Leike, acrescentando que a empresa “deve se tornar uma companhia de IAG priorizando a segurança”.
Sam Altman, CEO da OpenAI, respondeu ao post de Leike na plataforma X agradecendo ao ex-colega por suas contribuições à cultura de segurança da empresa. “Ele está certo, temos muito mais a fazer; estamos comprometidos em fazer isso”, escreveu Altman.
Sutskever, que também era o cientista-chefe da OpenAI, disse em seu post no X anunciando sua saída que estava confiante de que a OpenAI “construirá uma IAG segura e benéfica” sob sua liderança atual. É importante destacar que Sutskever inicialmente apoiou a remoção de Altman como chefe da OpenAI em novembro passado, antes de voltar atrás e apoiá-lo novamente após dias de tumulto interno na empresa.
A advertência de Leike ocorre no mesmo momento em que um painel internacional de especialistas em IA divulgou um relatório inaugural sobre segurança em IA, que aponta a existência de desacordo sobre a probabilidade de sistemas de IA poderosos escaparem do controle humano. No entanto, o relatório alerta que os reguladores podem ficar para trás devido aos rápidos avanços na tecnologia, alertando para a “potencial disparidade entre o ritmo do progresso tecnológico e o ritmo de uma resposta regulatória”.
Leia também:
Este post foi modificado pela última vez em %s = human-readable time difference 16:49
O Google DeepMind acaba de anunciar uma parceria estratégica com a Apptronik, uma empresa de…
Uma equipe de pesquisadores de 20 laboratórios diferentes acaba de apresentar o Genesis, um motor…
O Google acabou de lançar o que está chamando de um novo modelo de inteligência…
A GitHub, de propriedade da Microsoft, acaba de anunciar um nível gratuito de seu Copilot…
A OpenAI acaba de lançar uma nova maneira surpreendente de acessar o ChatGPT - através…
O Google DeepMind acaba de lançar o FACTS Grounding, um novo benchmark projetado para avaliar…