Imagen: Getty Images
Los comentarios racistas, los mensajes de odio y los bulos proliferan cada vez más en las redes sociales. Aunque los usuarios pueden denunciar estos contenidos, las plataformas no siempre responden o, en algunos casos, eliminan publicaciones legítimas, como artículos sobre terrorismo o imágenes con desnudos que consideran inapropiados. Para resolver estos conflictos, la Unión Europea ha creado el Centro de Apelaciones Europeo, un nuevo organismo con sede en Dublín que se encarga de mediar en disputas entre usuarios y empresas tecnológicas.
Inicialmente, el centro abarca casos relacionados con Instagram, TikTok y YouTube, aunque se espera que en el futuro amplíe su ámbito a otras plataformas como Facebook, X o Threads. Este proyecto surge de la Ley de Servicios Digitales (DSA), que desde agosto de 2023 obliga a las grandes plataformas a retirar contenidos ilegales de forma inmediata bajo amenaza de multas millonarias.
Decisiones no vinculantes, pero influyentes
El objetivo del organismo es evitar que los conflictos escalen hasta los tribunales, ofreciendo una vía de mediación. Aunque sus resoluciones no son vinculantes, tienen un peso significativo. «Si una plataforma decide no aplicar nuestras decisiones, deberá justificarlo ante el regulador, lo que las hace difíciles de ignorar«, explica Thomas Hughes, director general del Centro de Apelaciones.
El organismo comenzó a aceptar casos en seis idiomas y cobra una tasa de 95 euros a las plataformas por cada disputa. A medida que amplíe su plantilla, se incluirán más redes sociales y lenguas de la Unión Europea.
Cómo funciona el proceso de apelación
Los usuarios europeos que deseen apelar una decisión de moderación pueden hacerlo a través de un formulario en la web del centro. Por una tasa simbólica de cinco euros, reembolsable si obtienen un fallo favorable, pueden presentar su queja. Una vez recibida, un equipo de expertos en políticas de plataformas analiza el contenido en disputa y evalúa si la decisión inicial se ajustó a las normas de la red social correspondiente.
Este proceso, que no debe superar los 90 días, incluye la revisión del contexto y los datos asociados al contenido. Aunque las resoluciones no son definitivas, las empresas tecnológicas deberán informar al regulador sobre cualquier decisión que contradiga las recomendaciones del organismo.
El reto de fijar límites
La Ley de Servicios Digitales establece que lo que es ilegal fuera de internet también lo es en el ámbito digital. Sin embargo, las plataformas tienen libertad para añadir sus propias políticas, lo que genera diferencias en el tratamiento de ciertos temas, como el contenido sexual explícito. Mientras que redes como X permiten películas pornográficas, otras como Instagram prohíben incluso imágenes de pezones femeninos, salvo excepciones educativas o médicas.
«Cada red social debe encontrar un equilibrio entre proteger la libertad de expresión y establecer límites razonables«, sostiene Hughes. No obstante, temas como la incitación a la violencia, la desinformación y el discurso de odio están claramente fuera de lo aceptable.