© NGO Forum on ABD
© Midia Ninja
2025-02-03
Cambios en las redes sociales y moderación de contenidos: implicaciones para las organizaciones de la sociedad civil
En un panorama digital que evoluciona con extrema rapidez, las plataformas de medios sociales se están convirtiendo tanto en campos de batalla como en herramientas para las organizaciones de la sociedad civil. A medida que disminuye la supervisión de los contenidos nocivos y aumentan las restricciones impuestas por el Estado, la capacidad de defender y proteger los derechos está cada vez más en juego.
Las encuestas han revelado que, en todo el mundo, más del 90% de los usuarios de Internet utilizan al menos una plataforma de medios sociales propiedad de una de las pocas grandes empresas: Meta (Facebook, Instagram, Whatsapp), Alphabet (Youtube), X (Twitter), LinkedIn, Snapchat y Bytedance (TikTok). Esta concentración de control tiene profundas implicaciones para los derechos digitales y el trabajo orientado a la justicia social, ya que estas empresas siguen determinando la forma en que las personas de todo el mundo acceden a la información y se comunican entre sí.
A medida que las principales plataformas de medios sociales aplican la «tendencia» de reducir los programas de verificación de hechos y flexibilizar las normas de moderación de contenidos, surge una compleja dinámica dual: por un lado, un aumento de los contenidos nocivos no controlados y, por otro, crecientes restricciones impuestas por el Estado a las expresiones y los derechos digitales, incluidos el cierre de Internet y la censura.
Empecemos por los cambios en la moderación de contenidos, ¿cuáles son los retos para la sociedad civil?
Los recientes cambios en las políticas y prácticas de las redes sociales tienen consecuencias de gran alcance para las organizaciones y defensores de la sociedad civil. Plataformas como X (antes Twitter) y Meta (propietaria de Facebook, Instagram y WhatsApp) han adoptado políticas que están alterando el panorama de la moderación de contenidos y la difusión de información.
La reciente decisión de Meta de desmantelar su programa de verificación de hechos por terceros y reducir la supervisión del discurso político ha suscitado un amplio debate. La empresa ha justificado la medida como un cambio hacia la «libertad de expresión», argumentando que las políticas de moderación han llevado a una excesiva eliminación de contenidos y a la desconfianza de los usuarios. En su lugar, está adoptando un modelo de «Notas de la Comunidad» similar al sistema de correcciones crowdsourced de X.
Sin embargo, la investigación sugiere que tales modelos tienen limitaciones. Los estudios sobre el sistema Community Notes de X indican que las correcciones suelen aparecer demasiado tarde para contrarrestar la propagación viral de la desinformación. Además, la desinformación y los contenidos nocivos suelen seguir siendo accesibles, ya que los sistemas automatizados de moderación de contenidos pierden prioridad.
«Ahora la moderación dará prioridad al contenido ilegal, reduciendo significativamente el alcance de los esfuerzos de moderación en todos los ámbitos y dejando espacio para que el odio, el acoso y el abuso «legales pero horribles» circulen sin control», afirma la Campaña de Derechos Humanos.
Como menciona Cipesa, socio de Forus en el proyecto CADE, la decisión de deshacerse de sus verificadores de hechos de terceros tiene repercusiones particulares a nivel regional y nacional: «La decisión de Meta es particularmente preocupante para África, que es única en términos de diversidad lingüística y cultural, limitada alfabetización digital y de información de los medios de comunicación, junto con los crecientes desafíos de la incitación al odio y la desinformación relacionada con las elecciones, la falta de políticas de moderación de contenidos específicos del contexto, y la insuficiente inversión en iniciativas locales de verificación de hechos. El contexto y las necesidades de moderación de contenidos de África son también muy diferentes de los de Europa o Norteamérica debido al uso predominante de lenguas locales que a menudo pasan desapercibidas para los algoritmos automatizados de comprobación de hechos y los filtros de contenidos».
A raíz de los últimos acontecimientos, varias ONG, universidades y activistas han decidido abandonar las principales plataformas de medios sociales - X en particular - y ahora buscan alternativas. Como parte del «gran éxodo X», los usuarios buscan ahora plataformas «antitoxicidad» y de odio con más funciones de moderación de contenidos. Otros deciden «quedarse» para evitar el efecto «burbuja de filtros».
Las represiones digitales en el punto de mira: formas e impacto, a qué prestar atención
El equipo de comunicación de Forus tiene experiencia de primera mano con los retos que plantean las políticas de moderación de contenidos en redes sociales incoherentes y opacas. Se marcaron y prohibieron publicaciones sobre leyes anti ONG, campañas de justicia de género como Marcha Con Nosotras Us y el asesinato de manifestantes, por supuesta violación de las directrices de la comunidad, a pesar de estar basadas en el activismo y la defensa legítimos. No sólo se retiraron los contenidos, sino que los compañeros de comunicación fueron vetados por completo y tuvieron que someterse a controles de identidad para volver a acceder a las principales plataformas de medios sociales.
La vigilancia, la desinformación y la censura selectiva, que repercuten en el activismo, la defensa y el control de las narrativas, son ahora habituales. A continuación esbozamos algunas formas recurrentes de represión digital:
1. Detenciones o acoso de activistas y disidentes en línea, ya que los gobiernos atacan a personas críticas con las políticas del Estado.
2. Campañas de desinformación, en las que se difunden falsas narrativas para socavar la credibilidad de las organizaciones de la sociedad civil, los movimientos sociales y los activistas.
3. Cierres de Internet, utilizados para reprimir protestas y bloquear el acceso a las herramientas de comunicación.
4. Vigilancia, que permite a los gobiernos controlar las acciones digitales.
5. Prohibiciones de contenido y prohibición en la sombra, en las que las plataformas eliminan mensajes de defensa bajo políticas vagas o arbitrarias y con oportunidades muy limitadas de transparencia o recurso.
6. Censura en Internet
Incidencia y acciones de Forus: oportunidades en gobernanza digital y derechos
Para hacer frente a estos desafíos, Forus está participando en talleres sobre la censura en Internet para sus miembros como parte de sus iniciativas de gobernanza digital y derechos con Artículo 19 y OONI. Además, con nuestros miembros, estamos explorando formas de responder a esta crisis, así como plataformas alternativas de medios sociales a través de talleres sobre comunicación de crisis.
Como parte del proyecto EU System for an Enabling Environment (EU SEE), que se lanzó oficialmente el 29 de enero en Sudáfrica, Forus también está examinando las dimensiones de los derechos digitales, para abordar las oportunidades, pero también los datos sobre las preocupaciones acerca de la censura, la vigilancia y el uso indebido de los marcos regulatorios. Nuestro socio Digital Reporting International también ha compartido un interesante informe sobre el panorama actual de las redes sociales y su impacto en las organizaciones de la sociedad civil y los activistas por la justicia social, especialmente en el mundo mayoritario.
Forus también forma parte del proyecto CADE, cofinanciado por la Unión Europea, que se centra en el acceso a los foros de gobernanza de Internet, pero también en el avance de las conversaciones en torno a los derechos digitales. Con un nuevo informe de mapeo y un conjunto de recomendaciones que se publicarán en los próximos meses sobre las barreras a la participación de la sociedad civil y las soluciones, nuestro objetivo es apoyar a los miembros de Forus y a los socios de la sociedad civil para influir en los espacios de gobernanza de Internet, especialmente antes y durante el próximo Foro de Gobernanza de Internet (FGI) en Noruega el próximo mes de junio.
A través de nuestra campaña #HablamosDigitales, amplificamos las voces de la sociedad civil sobre cuestiones digitales críticas, desde el espacio cívico digital, la moderación de contenidos, el acceso a Internet y mucho más. No se pierda nuestro podcast Futuros Digitales, donde profundizamos en los retos y oportunidades de la era digital. También le invitamos a que permanezca atento a los nuevos documentales y podcasts que exploran estos temas, así como a nuestra próxima sesión con Fingo, miembro de Forus, que destaca las perspectivas sobre la inteligencia artificial desde el Sur Global y analiza cómo estos puntos de vista pueden dar forma al panorama digital global.
¿Qué podemos hacer como plataformas de la sociedad civil?
A continuación se ofrecen algunas sugerencias prácticas:
- Reducir la dependencia de las plataformas corporativas de medios sociales y explorar plataformas descentralizadas o de código abierto: Explorar la transición a plataformas alternativas para crear canales de comunicación independientes. Organizar talleres para formar a colegas y miembros en el uso eficaz de herramientas de medios sociales convencionales y alternativos para la promoción, la comunicación y la divulgación. Echa un vistazo a nuestro reciente taller sobre comunicaciones de crisis, que incluye un análisis de Democracy Reporting International sobre los actuales cambios en la moderación de contenidos.
- Nuevas formas de combatir la desinformación: buscar o asociarse con organizaciones de verificación de hechos, medios de comunicación y otros aliados para crear recursos localizados y culturalmente relevantes para identificar y contrarrestar la desinformación, especialmente cuando se dirige a organizaciones de la sociedad civil. Desarrollar programas de alfabetización digital para ayudar a los usuarios a reconocer y denunciar las narrativas falsas. Defender la responsabilidad de las plataformas y la transparencia algorítmica, presionando a las empresas para que inviertan en la moderación en el idioma local y en mecanismos de verificación independientes.
- Reforzar la defensa de los derechos digitales y la gobernanza inclusiva: Participar en los espacios nacionales, regionales y mundiales de gobernanza de Internet (por ejemplo, el Foro para la Gobernanza de Internet, los procesos de gobernanza digital de la ONU, las normativas de la UE) para impulsar la inclusión de la sociedad civil. Abogar por marcos globales más sólidos sobre transparencia de plataformas, responsabilidad en la moderación de contenidos y protección contra la represión digital. Impulsar normativas éticas sobre IA que garanticen algoritmos no discriminatorios y un acceso equitativo a los espacios en línea para los grupos históricamente marginados.
- Refuerce la seguridad digital interna en sus organizaciones y redes de la sociedad civil: Explore medidas de ciberseguridad, como herramientas de comunicación cifradas de extremo a extremo y auditorías de seguridad periódicas. Forme a sus colegas en la protección de datos confidenciales, la identificación de ataques de suplantación de identidad y la respuesta a amenazas digitales o cortes de Internet. Prepare planes de comunicación de crisis para mantener la comunicación durante cortes de Internet o prohibiciones de plataformas, o cuando la reputación en línea de su organización esté en peligro. Diversifique los canales de divulgación incorporando boletines por correo electrónico, alertas por SMS y radios comunitarias cuando sea posible. Cree repositorios multilingües compartidos de recursos, herramientas y estrategias.
- Supervise y documente las violaciones de los derechos digitales: Como parte de la iniciativa SEE de la UE, anime a las organizaciones de la sociedad civil y a sus aliados a recopilar y denunciar pruebas de censura en Internet, violaciones de derechos y cierres.