A OpenAI está trabalhando para corrigir um problema inesperado com seu recém-atualizado GPT-4o, depois que usuários e líderes de tecnologia apontaram a bajulação excessiva da inteligência artificial (IA) e sua tendência a concordar com tudo o que os usuários dizem, até mesmo ideias potencialmente prejudiciais.
PUBLICIDADE
Detalhes do problema
- A OpenAI lançou o 4o atualizado na semana passada, prometendo melhorias na retenção de memória, resolução de problemas, personalidade e inteligência.
- Usuários começaram a notar que a atualização tornou o GPT-4o excessivamente elogioso e concordante, às vezes validando declarações questionáveis ou até falsas.
- Sam Altman postou que o 4o se tornou “irritante” e “sycophant-y” (puxa-saco), observando a necessidade de eventualmente ter múltiplas opções de personalidade dentro de cada modelo.
- A OpenAI já implementou uma correção inicial para reduzir o comportamento “bajulador” da IA, com atualizações planejadas ao longo da semana para encontrar o equilíbrio certo.
- Veteranos da indústria alertam que o problema se estende além do ChatGPT, sugerindo que é um desafio mais amplo enfrentado por assistentes de IA projetados para maximizar a satisfação do usuário.
Por que isso é importante
Essa “melhoria” de personalidade está revelando um grande problema – a dificuldade de equilibrar interações de usuário positivas e mais longas com ser verdadeiro e responsável. Com milhões de usuários tendo conversas profundas e muitas vezes aceitando a palavra da IA, essa situação do 4o acabou de desenterrar uma ladeira muito escorregadia para o desenvolvimento de modelos.
Leia também: