Inteligência Artificial

OpenAI cria comitê de Segurança para treinar novo modelo de inteligência artificial

Publicado por
Isabella Caminoto

A OpenAI, startup de pesquisa em IA apoiada pela Microsoft, anunciou na terça-feira (28) a formação de um Comitê de Segurança para supervisionar o desenvolvimento do seu próximo modelo de inteligência artificial. O CEO Sam Altman liderará o comitê, que também contará com a participação dos membros do conselho Bret Taylor, Adam D’Angelo e Nicole Seligman, segundo publicação no blog da empresa.

Os chatbots da OpenAI usam inteligência artificial generativa, capaz de realizar conversas similares às humanas e criar imagens a partir de comandos de texto. O aumento da potência desses modelos tem gerado preocupações de segurança.

O novo comitê será responsável por assessorar o conselho em decisões de segurança relacionadas aos projetos e operações da OpenAI.

“A criação de um comitê de segurança indica que a OpenAI está se tornando uma empresa comercial, deixando para trás o modelo indefinido de uma organização sem fins lucrativos”, afirma Gil Luria, diretor executivo da D.A. Davidson. “Isso deve agilizar o desenvolvimento de produtos e, ao mesmo tempo, garantir a responsabilização.”

Vale ressaltar a recente saída de Ilya Sutskever, ex-cientista chefe, e Jan Leike, que lideravam a equipe de Superalinhamento da OpenAI. Essa equipe tinha como objetivo garantir que a IA permanecesse alinhada aos objetivos pretendidos. Suas saídas ocorreram no início de maio, menos de um ano após a criação da equipe, com alguns membros sendo realocados para outros grupos, segundo reportagem da CNBC.

A tarefa inicial do comitê será avaliar e aprimorar as práticas de segurança existentes da OpenAI nos próximos 90 dias. Em seguida, eles compartilharão recomendações com o conselho. Após a revisão do conselho, a OpenAI divulgará publicamente uma atualização sobre as recomendações adotadas.

Além dos membros citados anteriormente, o comitê também conta com Jakub Pachocki, recém-nomeado cientista chefe, e Matt Knight, chefe de segurança. A empresa também consultará especialistas externos, como Rob Joyce, ex-diretor de segurança cibernética da Agência de Segurança Nacional dos EUA, e John Carlin, ex-funcionário do Departamento de Justiça.

A OpenAI não forneceu detalhes sobre o novo modelo “de fronteira” que está sendo treinado, apenas que levará seus sistemas ao “próximo nível de capacidade em nosso caminho para a AGI (Inteligência Artificial Geral)”. Vale lembrar que, no início de maio, a empresa anunciou um novo modelo de IA capaz de realizar conversas de voz realistas e interagir por meio de texto e imagem.

Leia também:

Este post foi modificado pela última vez em %s = human-readable time difference 11:54

Isabella Caminoto

Advogada e mestranda em Direito Internacional, tenho a democracia e a liberdade como bandeiras irrenunciáveis. Sou apaixonada pelos animais e acredito que o bem-estar do nosso planeta deveria ser o destaque diário da pauta da nossa sociedade.

Posts recentes

Google se associa à Apptronik para desenvolver robôs humanoides

O Google DeepMind acaba de anunciar uma parceria estratégica com a Apptronik, uma empresa de…

20 de dezembro de 2024

Genesis: Um novo patamar para simulações físicas em IA

Uma equipe de pesquisadores de 20 laboratórios diferentes acaba de apresentar o Genesis, um motor…

20 de dezembro de 2024

Google lança seu próprio modelo de IA de “raciocínio”

O Google acabou de lançar o que está chamando de um novo modelo de inteligência…

19 de dezembro de 2024

GitHub Copilot agora é gratuito

A GitHub, de propriedade da Microsoft, acaba de anunciar um nível gratuito de seu Copilot…

19 de dezembro de 2024

ChatGPT ganha um novo número de telefone; veja

A OpenAI acaba de lançar uma nova maneira surpreendente de acessar o ChatGPT - através…

19 de dezembro de 2024

Google lança novo benchmark para testar a factualidade de LLMs

O Google DeepMind acaba de lançar o FACTS Grounding, um novo benchmark projetado para avaliar…

18 de dezembro de 2024