A Meta está fazendo duas alterações principais nas suas políticas, à medida que enfrenta uma pressão crescente para tornar as suas plataformas de redes sociais mais seguras para as crianças. Os usuários adolescentes não verão mais postagens de outras pessoas discutindo sua luta pessoal com pensamentos de automutilação ou suicídio, mesmo que sigam essa pessoa.
PUBLICIDADE
Mark Zuckerberg’s firm Meta will hide content about self-harm and eating disorders on Facebook and Instagram from under-18s — but campaigners call the move ‘piecemeal’ ⬇️https://t.co/wXJc8v87Kc
— The Times and The Sunday Times (@thetimes) January 10, 2024
O objetivo é remover mais conteúdo sobre suicídio, automutilação e transtornos alimentares dos feeds de adolescentes no Instagram e no Facebook.
Todos os menores de 18 anos também serão colocados nas configurações de controle de conteúdo mais restritivas no Instagram e no Facebook.
Os defensores da segurança infantil deram uma resposta mista à medida, que surge face ao aumento da pressão regulamentar, jurídica e política.
PUBLICIDADE
A Meta está enfrentando novas regras no Reino Unido sob a Lei de Segurança Online, que exigirão que a empresa proteja as crianças de conteúdos nocivos.
A Comissão Europeia procurou informações sobre como a Meta protege as crianças e dezenas de estados americanos processaram a empresa, alegando que esta enganou repetidamente o público sobre os perigos das suas plataformas.
Mark Zuckerberg, o presidente-executivo da Meta , deve testemunhar perante o Senado dos EUA sobre o assunto este mês.
PUBLICIDADE
Andy Burrows, conselheiro da instituição de caridade criada pela família de Molly Russell, que tirou a própria vida após ver conteúdo nas redes sociais, chamou as mudanças de “fragmentadas”.
“Embora as mudanças nas políticas do Meta sejam bem-vindas, a grande maioria do conteúdo prejudicial atualmente disponível no Instagram não é coberta por este anúncio, e a plataforma continuará a recomendar quantidades substanciais de material perigoso para crianças”.
Leia também: