© NGO Forum on ABD

Forus

© Midia Ninja

2025-02-03

Mudanças nas redes sociais e moderação de conteúdos: implicações para as organizações da sociedade civil

Num cenário digital em evolução extremamente rápida, as plataformas de redes sociais estão a tornar-se tanto campos de batalha como ferramentas para as organizações da sociedade civil. Com a diminuição da supervisão dos conteúdos nocivos e o aumento das restrições impostas pelo Estado, a capacidade de defender e proteger os direitos está cada vez mais em causa.  

 

Os inquéritos revelaram que, em todo o mundo, mais de 90% dos utilizadores da Internet utilizam pelo menos uma plataforma de redes sociais pertencente a uma de algumas grandes empresas - Meta (Facebook, Instagram, Whatsapp), Alphabet (Youtube), X (Twitter), LinkedIn, Snapchat e Bytedance (TikTok). Esta concentração de controlo tem profundas implicações para os direitos digitais e o trabalho orientado para a justiça social, uma vez que estas empresas continuam a moldar a forma como as pessoas em todo o mundo acedem à informação e comunicam entre si. 

À medida que as principais plataformas de redes sociais aplicam a “tendência” de reduzir os programas de verificação de factos e afrouxar as regras de moderação de conteúdos, está a emergir uma complexa dinâmica dupla: por um lado, um aumento de conteúdos nocivos não controlados e, por outro, crescentes restrições impostas pelo Estado às expressões e direitos digitais, incluindo o encerramento e a censura da Internet. 

 

Comecemos pelas mudanças na moderação de conteúdos. Quais são os desafios para a sociedade civil?  

 

As recentes mudanças nas políticas e práticas das redes sociais têm consequências de grande alcance para as organizações da sociedade civil e os defensores. Plataformas como o X (antigo Twitter) e o Meta (proprietário do Facebook, Instagram e WhatsApp) adoptaram políticas que estão a alterar o panorama da moderação de conteúdos e da divulgação de informações.  

 

A recente decisão da Meta de desmantelar o seu programa de verificação de factos por terceiros e reduzir a supervisão do discurso político suscitou um debate generalizado. A empresa justificou a medida como uma mudança para a “liberdade de expressão”, argumentando que as políticas de moderação levaram à remoção excessiva de conteúdos e à desconfiança dos utilizadores. Em vez disso, está a adotar um modelo de “Notas da Comunidade” semelhante ao sistema de correção por crowdsourcing do X

 

No entanto, a investigação sugere que estes modelos têm limitações. Os estudos sobre o sistema de notas da comunidade do X indicam que as correcções aparecem frequentemente demasiado tarde para contrariar a propagação viral da desinformação. Além disso, a desinformação e os conteúdos nocivos permanecem frequentemente acessíveis, uma vez que os sistemas automatizados de moderação de conteúdos são despriorizados.  

 

“A moderação passa a dar prioridade aos conteúdos ilegais, reduzindo significativamente o âmbito dos esforços de moderação em toda a linha e deixando espaço para que o ódio, o assédio e o abuso “legais mas terríveis” circulem sem controlo”, afirma a Human Rights Campaign

 

Tal como refere a Cipesa, parceira de Forus no projeto CADE, a decisão de se desfazer dos seus verificadores de factos terceiros tem repercussões particulares a nível regional e nacional: “A decisão do Meta é particularmente preocupante para África, que é única em termos de diversidade linguística e cultural, literacia digital e mediática limitada, juntamente com os desafios crescentes do discurso de ódio e da desinformação relacionada com as eleições, a falta de políticas de moderação de conteúdos específicas ao contexto e o investimento inadequado em iniciativas locais de verificação de factos. O contexto e as necessidades de moderação de conteúdos em África são também bastante diferentes dos da Europa ou da América do Norte, devido à utilização predominante de línguas locais que são frequentemente ignoradas pelos algoritmos automatizados de verificação de factos e pelos filtros de conteúdos.” 

 

Em resultado dos recentes desenvolvimentos, várias ONG, universidades e activistas decidiram abandonar as principais plataformas dos meios de comunicação social, em particular a X, e estão agora à procura de alternativas. Como parte do “grande êxodo X”, os utilizadores procuram agora plataformas “anti-toxicidade” e de ódio com mais funcionalidades de moderação de conteúdos. Outros decidem “ficar” para evitar o efeito de “bolha de filtros”. 

 

Repressão digital em foco: formas e impacto, a que estar atento 

 

A equipa de comunicação de Forus tem experiência em primeira mão com os desafios colocados por políticas inconsistentes e opacas de moderação de conteúdos nas redes sociais. Publicações que destacavam leis anti-ONG, campanhas de justiça de género, como a #MarchaComNós, e o assassinato de manifestantes foram assinaladas e banidas por alegadamente violarem as diretrizes da comunidade, apesar de se basearem em ativismo e defesa legítimos. Não só o conteúdo foi retirado, como os colegas de comunicação foram totalmente banidos e tiveram de passar por controlos de identidade para voltar a ter acesso às principais plataformas de redes sociais. 

 

A vigilância, a desinformação e a censura direcionada, com repercussões no ativismo, na defesa de causas e no controlo das narrativas, são agora comuns. 

 

Abaixo estão algumas formas recorrentes de repressão digital:

  1. Prisões ou assédio a ativistas online e dissidentes.

  2. Campanhas de desinformação para minar a credibilidade de organizações da sociedade civil.

  3. Bloqueios de internet para suprimir protestos e impedir comunicação.

  4. Vigilância governamental sobre atividades digitais.

  5. Censura e shadowbanning de conteúdos de defesa de direitos.

Forus: advocacia e ações em governança e direitos digitais

 

O Forus está envolvido em oficinas sobre censura na internet para seus membros como parte de suas iniciativas de governança digital e direitos, em parceria com Article 19 e OONI. Também participa do projeto EU System for an Enabling Environment (EU SEE), examinado dimensões dos direitos digitais e preocupações sobre censura e vigilância. 

 

Como parte do projeto EU System for a Enabling Environment (EU SEE), lançado oficialmente em 29 de janeiro na África do Sul, o Forus também está examinando as dimensões dos direitos digitais, para abordar oportunidades, mas também dados sobre preocupações com censura, vigilância e o uso indevido de estruturas regulatórias. Nosso parceiro Digital Reporting International também compartilhou um interessante relatório sobre o atual cenário de mídia social e seu impacto nas organizações da sociedade civil e ativistas da justiça social - especialmente no mundo da maioria.  

 

Forus também faz parte do projeto CADE, co-financiado pela União Europeia, que se concentra no acesso aos fóruns de governança da internet, mas também para promover conversas sobre direitos digitais. Com um novo relatório de mapeamento e conjunto de recomendações a serem publicadas nos próximos meses sobre barreiras à participação da sociedade civil e soluções, Pretendemos apoiar os membros do Forus e parceiros da sociedade civil a influenciar espaços de governança da internet - especialmente na próxima edição do Fórum de Governança da Internet (IGF) que se realizará na Noruega em junho

 

Através da nossa campanha #FalemosDigital, amplificamos as vozes da sociedade civil sobre questões digitais críticas, desde o espaço cívico digital, moderação de conteúdo, acesso à internet e muito mais. Não perca nosso podcast Digital Futures, onde exploramos os desafios e as oportunidades da era digital. Também convidamos você a ficar atento para novos documentários e podcasts que exploram esses temas, bem como nossa próxima sessão com o membro do Forus, Fingo, que destaca perspectivas sobre inteligência artificial do Sul Global e discute como essas visões podem moldar o cenário digital global.  

 

O que podemos fazer como plataformas da sociedade civil?

  • Reduzir a dependência das plataformas de mídia social corporativa e explorar plataformas descentralizadas ou de código aberto: Explorar a transição para plataformas alternativas para criar canais de comunicação independentes. Realizar workshops para treinar colegas e membros sobre o uso efetivo de ferramentas sociais tradicionais e alternativas para advocacy, comunicação e divulgação. Confira nosso recente workshop sobre comunicações de crise, que apresenta a análise do Democracy Reporting International das mudanças atuais na moderação de conteúdo. 

  •  

    Novas formas de combater a desinformação: mapear ou colaborar com organizações de verificação de fatos, meios de comunicação e outros aliados para criar recursos localizados e culturalmente relevantes para identificar e combater a desinformação - especialmente quando se destina organizações da sociedade civil. Desenvolver programas de literacia digital para apoiar os usuários a reconhecer e relatar falsas narrativas. Advogar pela responsabilidade da plataforma e transparência algorítmica, incentivando as empresas a investir em mecanismos de moderação de idiomas locais e verificação independente. 

  •  

    Fortalecer a defesa dos direitos digitais e a governança inclusiva: Envolver-se em espaços de governança da internet nacionais, regionais e globais (por exemplo, o Fórum de Governança da Internet, processos de governança digital da ONU, regulamentos da UE) para promover a inclusão da sociedade civil. Advogar por estruturas globais mais fortes em transparência de plataforma, responsabilidade de moderação de conteúdo e proteção contra a repressão digital. Promover regulamentos éticos de IA que garantam algoritmos não discriminatórios e acesso equitativo a espaços online para grupos historicamente marginalizados.  

  • Fortalecer a segurança digital interna dentro de suas organizações e redes da sociedade civil: Explore medidas de segurança cibernética, como ferramentas de comunicação criptografadas de ponta a ponta e auditorias de segurança regulares. Treinar colegas sobre proteção de dados confidenciais, identificação de ataques de phishing e resposta a ameaças digitais ou desligamentos da internet. Prepare planos de comunicação de crise para manter a comunicação durante desligamentos da internet ou banimentos de plataformas, ou quando a reputação online da sua organização estiver em risco. Diversificar os canais de divulgação, incorporando boletins eletrônicos, alertas por SMS e rádio comunitária sempre que possível. Criar repositórios multilíngues compartilhados de recursos, ferramentas e estratégias. 

  •  

    Monitorar e documentar violações de direitos digitais: conforme implementado como parte da iniciativa UE SEE, incentivar as organizações da sociedade civil e aliados a coletar e relatar evidências de censura na internet, violações de direitos e desligamentos. 

 

Forus