El efecto de las políticas de moderación en las redes sociales sobre lo que consumen los usuarios no es nuevo, pero por primera vez ha podido medirse gracias a datos facilitados por una plataforma. Durante las elecciones presidenciales de EE. UU. en 2020, Facebook redujo drásticamente la difusión de contenido etiquetado como desinformación, pasando de 50 millones de visualizaciones en julio a prácticamente cero en noviembre.
Esta reducción se logró mediante medidas excepcionales de moderación denominadas “romper el cristal”, diseñadas para frenar la viralización de contenido problemático en un momento crítico. Aunque estas políticas demostraron ser efectivas, Meta ha tomado una postura diferente en años recientes. Nick Clegg, presidente de Asuntos Globales de la empresa, señaló que han aprendido de los errores de una moderación excesiva que, según él, limita injustamente la libertad de expresión: “Demasiadas veces quitamos o limitamos contenido inofensivo y castigamos injustamente a demasiada gente”, escribió el 3 de diciembre.
Las decisiones en manos de Meta
El problema radica en que la aplicación de estas medidas depende exclusivamente de la voluntad de la compañía y sus líderes, quienes priorizan sus propios intereses sobre los de la sociedad. Según David Lazer, profesor de la Universidad Northeastern y coautor de una investigación publicada en Sociological Science, este enfoque pone en riesgo el interés público: “La preocupación es que estas empresas ignoren el bienestar general para perseguir ganancias a corto plazo o servir discretamente a quienes están en el poder”.
La investigación de Lazer forma parte de una serie de estudios que comenzaron a publicarse en 2023 y revelaron que la desinformación en Facebook es mayormente consumida por usuarios de ideología conservadora. Sin embargo, estos análisis llegan años después de los eventos investigados debido a los largos procesos de revisión científica.
Normas y algoritmos como factores determinantes
El acceso sin precedentes a datos internos de una red social ha permitido comprender cómo las reglas y las políticas de moderación afectan la distribución y viralización del contenido. En Facebook, por ejemplo, el funcionamiento de Páginas y Grupos, combinado con sus normas de moderación, tiene un impacto significativo en lo que ven los usuarios, incluso más que el algoritmo en sí.
Además, los investigadores confirmaron un patrón ya observado en otros estudios: un grupo reducido de usuarios es responsable de la mayoría de la desinformación. Según Sandra González Bailón, profesora de la Universidad de Pensilvania y coautora del artículo, “alrededor del 1% de los usuarios generan la mayoría de los mensajes etiquetados como desinformación”. Este comportamiento se repite en diversas plataformas, lo que refuerza la idea de que una minoría activa es la principal fuente de contenido problemático.
Sin embargo, las dinámicas varían según la red., Instagram y TikTok tienen características únicas y políticas de moderación diferentes, lo que dificulta extrapolar los resultados de Facebook a estas plataformas.
Operaciones de influencia y control informativo
Meta reveló recientemente que, solo en 2024, ha desmantelado 20 operaciones de influencia organizadas por gobiernos, principalmente de Rusia, Irán y China. Aunque asegura que ninguna tuvo éxito, el potencial de estas acciones para alterar procesos democráticos es enorme.
El control que ejercen las redes sociales desde sus direcciones puede inclinarse hacia una ideología y luego cambiar abruptamente. Ejemplos recientes en plataformas como X y Telegram, influenciadas por sus dueños y presionadas por gobiernos en países como Brasil y Francia, evidencian la necesidad de transparencia en la gestión de estas herramientas.