OpenAI emite comunicado após acusações e proibições do uso do ChatGPT

Sabe aquele ditado: prego que se destaca leva mais martelada? Então, parece que a OpenAI não tá tendo vida fácil desde seu sucesso de lançamento no fim do ano passado. Além de inúmeras críticas nas redes sociais , um grupo de cabeças influentes da tecnologia mundial pediu pra empresa parar com o desenvolvimento da IA por um tempo. Além disso, a empresa foi proibida de atuar na Itália, na última semana. A partir disso, a dona do ChatGPT publicou um comunicado falando sobre sua preocupação com os temas abordados por especialistas: segurança e privacidade. Com tom de mea culpa, a OpenAI publicou na última quarta-feira (5) as medidas que tem tomado para aprimorar a tecnologia.

O comunicado, divulgado no site da empresa, traz tópicos que dizem respeito à privacidade, segurança de dados, proteção de crianças pela ferramenta e novos recursos úteis. 

PUBLICIDADE

Comunicado da OpenAI

A empresa reconhece que as ferramentas de IA oferecem muitos benefícios para as pessoas, mas também apresentam riscos reais. Antes de liberar qualquer novo sistema, a empresa conta que  realiza testes rigorosos, envolvendo especialistas externos para feedback.

OpenAI afirma que tem observado medidas para proteger crianças

Outro foco crítico da OpenAI é a proteção de crianças. A empresa exige que as pessoas tenham 18 anos ou mais – ou 13 anos ou mais com aprovação dos pais – para usar suas ferramentas de IA e tem políticas rigorosas contra conteúdo odioso, assediador, violento ou adulto, entre outras categorias. 

Complementando, a empresa narra que traz esforços significativos para minimizar o potencial de seus modelos gerarem conteúdo que prejudique as crianças e trabalha com organizações como a Khan Academy para construir soluções de segurança personalizadas para ambientes educacionais.

PUBLICIDADE

Veja também:

Rolar para cima