Sam Altman quebra silêncio sobre carta pedindo pausa do ChatGPT

Durante um discurso no MIT, Sam Altman, CEO da OpenAI, falou sobre a carta aberta que pede uma pausa no avanço da tecnologia de IA. Altman confirmou que a empresa não está treinando o GPT-5, considerado o sucessor do modelo de linguagem GPT-4.

Publicado por
Uesley Durães

A declaração foi dada na última quinta-feira (13).

No mês passado, milhares de especialistas em tecnologia de ponta, incluindo Elon Musk e Steve Wozniak, assinaram uma carta aberta pedindo uma pausa de seis meses no treinamento de sistemas de IA mais avançados que o GPT-4. 

A carta destaca as crescentes preocupações sobre a corrida para desenvolver uma IA cada vez mais poderosa e os riscos que isso representa para a sociedade. Embora os sistemas de IA contemporâneos, como o GPT-4, já possam competir com os humanos em tarefas gerais, a carta alerta para possíveis vieses de informação, automação de empregos e o risco de perder o controle sobre a civilização humana.

ChatGPT-4: versão nova conta com problemas antigos

Altman concordou com alguns aspectos da carta aberta, especificamente em relação à necessidade de aumentar as capacidades de segurança no desenvolvimento de IA. Ele afirmou que a OpenAI tomou medidas extensivas de segurança ao treinar o GPT-4, incluindo auditorias externas e verificações de segurança. 

“Estamos fazendo outras coisas além do GPT-4 que acho que têm todos os tipos de problemas de segurança que são importantes de abordar e foram totalmente deixados de fora da carta”, disse Altman.

SAN FRANCISCO, CALIFORNIA – OCTOBER 03: OpenAI Co-Founder & CEO Sam Altman speaks onstage during TechCrunch Disrupt San Francisco 2019 at Moscone Convention Center on October 03, 2019 in San Francisco, California. Steve Jennings/Getty Images for TechCrunch/AFP (Photo by Steve Jennings / GETTY IMAGES NORTH AMERICA / AFP)

No entanto, ele discordou da proposta de pausa monetária no desenvolvimento da IA e observou a falta de especificidade técnica na carta. Altman também refutou a alegação de que a OpenAI estava treinando o GPT-5, enfatizando a importância de uma avaliação e monitoramento precisos da segurança da IA.

Ele explicou ainda que o objetivo da OpenAI é incentivar o envolvimento global com a IA, levando indivíduos e instituições a atualizar ou adaptar os sistemas existentes para criar o futuro desejado. 

Recentemente noticiamos aqui no Newsverso que a OpenAI tem divulgado uma série de iniciativas para tornar a ferramenta mais segura. A empresa se comprometeu a realizar testes completos, buscar feedback de especialistas externos e colaborar com os governos para desenvolver regulamentações eficazes.

Veja também:

Este post foi modificado pela última vez em %s = human-readable time difference 10:11

Uesley Durães

Posts recentes

Google se associa à Apptronik para desenvolver robôs humanoides

O Google DeepMind acaba de anunciar uma parceria estratégica com a Apptronik, uma empresa de…

20 de dezembro de 2024

Genesis: Um novo patamar para simulações físicas em IA

Uma equipe de pesquisadores de 20 laboratórios diferentes acaba de apresentar o Genesis, um motor…

20 de dezembro de 2024

Google lança seu próprio modelo de IA de “raciocínio”

O Google acabou de lançar o que está chamando de um novo modelo de inteligência…

19 de dezembro de 2024

GitHub Copilot agora é gratuito

A GitHub, de propriedade da Microsoft, acaba de anunciar um nível gratuito de seu Copilot…

19 de dezembro de 2024

ChatGPT ganha um novo número de telefone; veja

A OpenAI acaba de lançar uma nova maneira surpreendente de acessar o ChatGPT - através…

19 de dezembro de 2024

Google lança novo benchmark para testar a factualidade de LLMs

O Google DeepMind acaba de lançar o FACTS Grounding, um novo benchmark projetado para avaliar…

18 de dezembro de 2024