« Le conseil est préoccupé par la façon dont Meta a pris le pas sur ses intérêts économiques sur la modération des contenus », a déclaré l'entité classée indépendante, mais financée par l'entreprise.
PUBLICITÉ
Dans son rapport, le conseil appelle à une « révision significative » du programme de double contrôle appelé « cross-checking » pour le rendre plus transparent, réactif et équitable.
Actuellement, lorsque des publications ou des images susceptibles de violer les politiques de Facebook ou Instagram sont signalés, ils sont immédiatement supprimés s’ils sont jugés trop risqués et s’ils proviennent d’utilisateurs inconnus. Mais si l’auteur est connu, ce contenu reste en ligne le temps d’un examen plus approfondi, un processus qui prend souvent plusieurs jours, voire des mois.
Ce système « inégal » en deux phases « offre des protections supplémentaires à ce qu’expriment certains utilisateurs, choisis en partie en fonction des intérêts économiques de l’entreprise ». Meta», détaille le rapport.
PUBLICITÉ
Cela signifie que « les contenus identifiés comme contraires aux règles du Meta rester visible sur Facebook et Instagram, tout en se propageant de manière virale et en causant des dommages potentiels », a averti le conseil.
Le conseil est composé de 20 membres internationaux, dont des journalistes, des avocats, des défenseurs des droits humains et d'anciens dirigeants politiques. Sa création en 2020 a été proposée par le PDG Mark Zuckerberg et est chargée d'évaluer la politique de modération des contenus du groupe californien.
(avec AFP)
Lire aussi: