A OpenAI, startup de pesquisa em IA apoiada pela Microsoft, anunciou na terça-feira (28) a formação de um Comitê de Segurança para supervisionar o desenvolvimento do seu próximo modelo de inteligência artificial. O CEO Sam Altman liderará o comitê, que também contará com a participação dos membros do conselho Bret Taylor, Adam D’Angelo e Nicole Seligman, segundo publicação no blog da empresa.
PUBLICIDADE
Os chatbots da OpenAI usam inteligência artificial generativa, capaz de realizar conversas similares às humanas e criar imagens a partir de comandos de texto. O aumento da potência desses modelos tem gerado preocupações de segurança.
O novo comitê será responsável por assessorar o conselho em decisões de segurança relacionadas aos projetos e operações da OpenAI.
“A criação de um comitê de segurança indica que a OpenAI está se tornando uma empresa comercial, deixando para trás o modelo indefinido de uma organização sem fins lucrativos”, afirma Gil Luria, diretor executivo da D.A. Davidson. “Isso deve agilizar o desenvolvimento de produtos e, ao mesmo tempo, garantir a responsabilização.”
PUBLICIDADE
Vale ressaltar a recente saída de Ilya Sutskever, ex-cientista chefe, e Jan Leike, que lideravam a equipe de Superalinhamento da OpenAI. Essa equipe tinha como objetivo garantir que a IA permanecesse alinhada aos objetivos pretendidos. Suas saídas ocorreram no início de maio, menos de um ano após a criação da equipe, com alguns membros sendo realocados para outros grupos, segundo reportagem da CNBC.
A tarefa inicial do comitê será avaliar e aprimorar as práticas de segurança existentes da OpenAI nos próximos 90 dias. Em seguida, eles compartilharão recomendações com o conselho. Após a revisão do conselho, a OpenAI divulgará publicamente uma atualização sobre as recomendações adotadas.
Além dos membros citados anteriormente, o comitê também conta com Jakub Pachocki, recém-nomeado cientista chefe, e Matt Knight, chefe de segurança. A empresa também consultará especialistas externos, como Rob Joyce, ex-diretor de segurança cibernética da Agência de Segurança Nacional dos EUA, e John Carlin, ex-funcionário do Departamento de Justiça.
PUBLICIDADE
A OpenAI não forneceu detalhes sobre o novo modelo “de fronteira” que está sendo treinado, apenas que levará seus sistemas ao “próximo nível de capacidade em nosso caminho para a AGI (Inteligência Artificial Geral)”. Vale lembrar que, no início de maio, a empresa anunciou um novo modelo de IA capaz de realizar conversas de voz realistas e interagir por meio de texto e imagem.
Leia também: