“O conselho está preocupado com a forma como a Meta tem sobreposto os seus interesses econômicos à moderação de conteúdos”, disse a entidade classificada como independente, mas financiada pela empresa.
PUBLICIDADE
Em seu relatório, o conselho pede uma “revisão significativa” do programa de verificação dupla chamado “verificação cruzada”, para torná-lo mais transparente, receptivo e justo.
Atualmente, quando postagens ou imagens que potencialmente violam as políticas do Facebook ou Instagram são sinalizadas, elas são imediatamente removidas se forem consideradas muito arriscadas e se vierem de usuários desconhecidos. Mas se o autor for conhecido, esse conteúdo permanece online enquanto é examinado mais a fundo, um processo que geralmente leva vários dias – e às vezes meses.
Esse sistema “desigual” que opera em duas fases “oferece proteções adicionais ao que certos usuários expressam, escolhidos em parte com base nos interesses econômicos da Meta“, detalha o relatório.
PUBLICIDADE
Isso faz com que “o conteúdo identificado como contrário às regras da Meta permaneça visível no Facebook e no Instagram, enquanto se espalha viralmente e causa danos potenciais”, alertou o conselho.
O conselho é composto por 20 membros internacionais, incluindo jornalistas, advogados, defensores dos direitos humanos e ex-líderes políticos. Sua criação em 2020 foi proposta pelo CEO Mark Zuckerberg e é responsável por avaliar a política de moderação de conteúdo do grupo californiano.
(com AFP)
Leia também: