A China está testando os grandes modelos de linguagem (LLMs) de empresas de inteligência artificial (IA) para garantir que sigam a linha do governo – revelou uma reportagem do Financial Times, publicada nesta quarta-feira (17). É mais uma expansão do regime de censura do país.
PUBLICIDADE
- Empresas como ByteDance e Alibaba são obrigadas a participar de avaliações governamentais de seus LLMs.
- Os testes analisam as respostas dos modelos a perguntas politicamente sensíveis, como sobre o presidente Xi Jinping.
- A China quer ser a líder mundial em regulação de IA, mas isso levanta preocupações sobre liberdade de expressão.
Como funciona a censura?
- O governo analisa os dados de treinamento dos LLMs e filtra palavras-chave consideradas problemáticas.
- Chatbots chineses rejeitam perguntas sobre temas delicados, como o Massacre da Praça da Paz Celestial em 1989.
- A China lançou um chatbot baseado na filosofia política do presidente Xi Jinping.
- Para evitar problemas, algumas empresas proibiram seus LLMs de falarem sobre Xi Jinping.
Engenheiros lutam para treinar LLMs
- Treinar LLMs com conteúdo em inglês e filtrar respostas politicamente corretas é um desafio.
- Alguns modelos substituem respostas dos LLMs em tempo real para garantir o alinhamento com a censura.
- Especialistas temem que a IA chinesa se torne apenas uma ferramenta para promover discursos do governo.
A China está moldando sua IA para se adequar à sua agenda política, o que gera receios sobre o futuro da liberdade de expressão e transparência na tecnologia.
Leia também: