Inteligência Artificial

Segurança em IA em risco? Pesquisador da OpenAI pede demissão e critica priorização de “produtos bonitos”

Publicado por
Isabella Caminoto

Um ex-funcionário sênior da OpenAI, empresa criadora do ChatGPT, acusou a companhia de priorizar “produtos chamativos” em detrimento da segurança. Jan Leike, que era co-líder da equipe de superinteligência e responsável por garantir que sistemas de inteligência artificial (IA) poderosos sigam valores humanos, revelou ter saído da empresa após um desentendimento sobre objetivos principais ter chegado a um “ponto de ruptura”.

A renúncia de Leike acontece às vésperas de uma cúpula global de inteligência artificial em Seul, onde políticos, especialistas e executivos de tecnologia discutirão a supervisão dessa tecnologia.

A saída de Leike se soma à de Ilya Sutskever, cofundador da OpenAI e co-líder da equipe de superinteligência, que também deixou a empresa recentemente, poucos dias após o lançamento do mais recente modelo de inteligência artificial da OpenAI, o GPT-4o.

Em um post na plataforma X, Leike detalhou as razões para sua saída, afirmando que a cultura de segurança se tornou menos prioritária. “Nos últimos anos, a cultura e os processos de segurança perderam espaço para produtos chamativos”, escreveu ele.

A OpenAI foi fundada com o objetivo de garantir que a inteligência artificial geral, descrita como “sistemas de IA que geralmente são mais inteligentes que os humanos”, beneficie toda a humanidade. Segundo Leike, ele vinha discordando da liderança da OpenAI sobre as prioridades da empresa há algum tempo, mas esse impasse finalmente “atingiu um ponto de ruptura”.

Leike acredita que a OpenAI, que também desenvolveu o gerador de imagens Dall-E e o gerador de vídeos Sora, deveria investir mais recursos em questões como segurança, impacto social, confidencialidade e proteção para sua próxima geração de modelos. “Esses problemas são muito difíceis de acertar, e estou preocupado que não estejamos no caminho certo para resolvê-los”, escreveu ele, acrescentando que estava ficando “cada vez mais difícil” para sua equipe realizar suas pesquisas.

“Construir máquinas mais inteligentes que os humanos é um empreendimento inerentemente perigoso. A OpenAI carrega uma enorme responsabilidade em nome de toda a humanidade”, escreveu Leike, acrescentando que a empresa “deve se tornar uma companhia de IAG priorizando a segurança”.

Sam Altman, CEO da OpenAI, respondeu ao post de Leike na plataforma X agradecendo ao ex-colega por suas contribuições à cultura de segurança da empresa. “Ele está certo, temos muito mais a fazer; estamos comprometidos em fazer isso”, escreveu Altman.

Sutskever, que também era o cientista-chefe da OpenAI, disse em seu post no X anunciando sua saída que estava confiante de que a OpenAI “construirá uma IAG segura e benéfica” sob sua liderança atual. É importante destacar que Sutskever inicialmente apoiou a remoção de Altman como chefe da OpenAI em novembro passado, antes de voltar atrás e apoiá-lo novamente após dias de tumulto interno na empresa.

A advertência de Leike ocorre no mesmo momento em que um painel internacional de especialistas em IA divulgou um relatório inaugural sobre segurança em IA, que aponta a existência de desacordo sobre a probabilidade de sistemas de IA poderosos escaparem do controle humano. No entanto, o relatório alerta que os reguladores podem ficar para trás devido aos rápidos avanços na tecnologia, alertando para a “potencial disparidade entre o ritmo do progresso tecnológico e o ritmo de uma resposta regulatória”.

Leia também:

Este post foi modificado pela última vez em 18 de maio de 2024 16:49

Isabella Caminoto

Advogada e mestranda em Direito Internacional, tenho a democracia e a liberdade como bandeiras irrenunciáveis. Sou apaixonada pelos animais e acredito que o bem-estar do nosso planeta deveria ser o destaque diário da pauta da nossa sociedade.

Posts recentes

Amazon anuncia reformulação da Alexa com IA; confira os detalhes

A Amazon está planejando uma grande reformulação de seu serviço Alexa - com uma década…

21 de junho de 2024

EUA propõe restrições a investimentos em tecnologia para a China

O governo dos Estados Unidos anunciou novas regras para limitar investimentos americanos em inteligência artificial…

21 de junho de 2024

Primeira aquisição da OpenAI é uma startup de dados corporativos; saiba mais

A OpenAI anunciou na sexta-feira (21) a aquisição da Rockset, uma startup especializada em análise…

21 de junho de 2024

Stability AI tem novo CEO e injeção de capital; revela publicação

A startup britânica de inteligência artificial (IA) Stability AI tem um novo CEO, Prem Akkaraju,…

21 de junho de 2024

Robôs ingeríveis: Revolucionando a endoscopia com PillBot e IA

Um minúsculo robô ingerível chamado PillBot entrou em ensaios clínicos e se prepara para avaliação…

21 de junho de 2024

Huawei em ritmo acelerado: Empresa diz ter feito grandes avanços em sistemas operacionais e IA

A Huawei Technologies da China disse na sexta-feira (21) que fez avanços em áreas que…

21 de junho de 2024