O novo modelo Grok 3 da xAI enfrentou críticas depois que usuários descobriram que ele se recusava a mencionar detalhes negativos sobre o ex-presidente Donald Trump e Elon Musk — apesar de Musk promover a inteligência artificial (IA) como sem filtros e “maximamente voltada para a verdade.”
PUBLICIDADE
Os detalhes
- Usuários perceberam que o Grok inicialmente fazia comentários controversos sobre Trump e chamava Musk de maior disseminador de desinformação.
- O engenheiro da xAI, Igor Babuschkin, disse que as respostas eram “realmente estranhas e uma grande falha do modelo”, corrigindo isso ao bloquear respostas sobre o assunto.
- Dias depois, usuários descobriram que o sistema do Grok 3 instruiu a IA a excluir fontes que ligassem Trump e Musk a temas controversos, como desinformação.
- Babuschkin revelou que a pessoa responsável pela censura é um ex-funcionário da OpenAI, afirmando que ele ainda “não absorveu totalmente a cultura da xAI”.
- Separadamente, funcionários da OpenAI criticaram a xAI por omitir dados de benchmark no lançamento do Grok 3, mas Babuschkin rebateu, dizendo que as alegações eram “completamente erradas”.
Por que isso importa
Musk há muito critica redes sociais e modelos de IA por limitarem a liberdade de expressão — mas isso é o que acontece quando sua IA “buscadora da verdade” desafia sua própria visão de mundo? Resultados censurados como esse, junto com as mudanças propostas no Community Notes, começam a expor rachaduras na suposta imparcialidade de Musk.
Leia também: