OpenAI pode estar trabalhando em recurso de construção de IAs para assinantes do ChatGPT
Créditos da imagem: Unsplash

OpenAI cria equipe para monitorar e testar tecnologias de IA em busca de perigos

A OpenAI anunciou a criação de uma equipe para monitorar e testar suas tecnologias em busca de perigos. A equipe de "Preparação", liderada pelo professor de inteligência artificial (IA) do MIT Aleksander Madry, incluirá pesquisadores, cientistas da computação, especialistas em segurança nacional e profissionais de políticas.

O anúncio da OpenAI vem em um momento de crescente preocupação sobre os possíveis perigos da inteligência artificial. Alguns especialistas alertaram que a tecnologia pode se tornar tão avançada que represente um perigo existencial para a humanidade. Outros argumentam que os riscos são exagerados e que a IA pode ser usada para melhorar a sociedade.

PUBLICIDADE

A OpenAI adota uma posição intermediária nesse debate. A empresa reconhece que existem riscos sérios a longo prazo inerentes à tecnologia, mas também enfatiza a importância de resolver problemas já existentes.

A equipe de “Preparação” da OpenAI monitorará como e quando a tecnologia da empresa pode ser usada para fins maliciosos, como construir armas ou hackear computadores. A equipe também permitirá que terceiros independentes qualificados de fora da OpenAI testem a tecnologia.

A criação da equipe de “Preparação” da OpenAI é um passo importante para garantir que a IA seja desenvolvida de forma segura e responsável. A empresa está tomando medidas para identificar e mitigar os riscos potenciais da tecnologia, ao mesmo tempo em que continua a trabalhar para desenvolver aplicações benéficas da IA.

PUBLICIDADE

Leia também:

Rolar para cima