A declaração foi dada na última quinta-feira (13).
No mês passado, milhares de especialistas em tecnologia de ponta, incluindo Elon Musk e Steve Wozniak, assinaram uma carta aberta pedindo uma pausa de seis meses no treinamento de sistemas de IA mais avançados que o GPT-4.
PUBLICIDADE
A carta destaca as crescentes preocupações sobre a corrida para desenvolver uma IA cada vez mais poderosa e os riscos que isso representa para a sociedade. Embora os sistemas de IA contemporâneos, como o GPT-4, já possam competir com os humanos em tarefas gerais, a carta alerta para possíveis vieses de informação, automação de empregos e o risco de perder o controle sobre a civilização humana.
Altman concordou com alguns aspectos da carta aberta, especificamente em relação à necessidade de aumentar as capacidades de segurança no desenvolvimento de IA. Ele afirmou que a OpenAI tomou medidas extensivas de segurança ao treinar o GPT-4, incluindo auditorias externas e verificações de segurança.
“Estamos fazendo outras coisas além do GPT-4 que acho que têm todos os tipos de problemas de segurança que são importantes de abordar e foram totalmente deixados de fora da carta”, disse Altman.
No entanto, ele discordou da proposta de pausa monetária no desenvolvimento da IA e observou a falta de especificidade técnica na carta. Altman também refutou a alegação de que a OpenAI estava treinando o GPT-5, enfatizando a importância de uma avaliação e monitoramento precisos da segurança da IA.
PUBLICIDADE
Ele explicou ainda que o objetivo da OpenAI é incentivar o envolvimento global com a IA, levando indivíduos e instituições a atualizar ou adaptar os sistemas existentes para criar o futuro desejado.
Recentemente noticiamos aqui no Newsverso que a OpenAI tem divulgado uma série de iniciativas para tornar a ferramenta mais segura. A empresa se comprometeu a realizar testes completos, buscar feedback de especialistas externos e colaborar com os governos para desenvolver regulamentações eficazes.
Veja também: