Barcelona, julio de 2025
Un grupo de 340 moderadores de contenido —empleados a través de la subcontrata CCC Barcelona Digital Services— ha presentado una demanda colectiva contra Meta, alegando daños psicológicos graves derivados de la exposición persistente a material excesivamente gráfico como asesinatos, torturas, violaciones y suicidios en redes como Facebook e Instagram.
Según la querella, encabezada por el abogado Francesc Feliu, estos trabajadores revisaban entre 350 y 450 publicaciones diarias, de las cuales entre un 20 % y 40 % presentaban escenas perturbadoras, con descansos de apenas cinco minutos por hora. Muchos desarrollaron trastornos de ansiedad, ataques de pánico, estrés postraumático e incluso ideación suicida.

Este pleito marca un precedente sin paralelo en España: se trata de la primera demanda criminal colectiva contra Meta por temas laborales y psicológicos en el sector de moderación de contenido. Los moderadores solicitan una indemnización de 150.000 € por persona y exigen que la multinacional asuma su responsabilidad como empleador real al determinar condiciones de trabajo, productividad y control.
Este caso se inscribe en una batalla legal en curso desde enero de 2024, cuando los tribunales españoles reconocieron por primera vez que un moderador podía padecer un trastorno psiquiátrico originado directamente por la actividad laboral, dictaminando que su baja médica debía considerarse un accidente de trabajo.
La denuncia sostiene que Meta y CCC conocían los riesgos psicológicos inherentes al trabajo, pero no ofrecieron apoyo psicológico adecuado hasta 2023. Hasta entonces, los trabajadores carecían de preparación para referir casos de estrés o recibir asistencia terapéutica, pese a las recomendaciones legales sobre salud mental en el trabajo.

El revés judicial en 2024 y el cierre en abril de este año del centro de moderación en Torre Glòries, que dejó fuera a más de 2.000 trabajadores, han agudizado el debate sobre los límites del outsourcing en Meta y la necesidad de reforzar los derechos laborales en la economía digital.
En el centro de la disputa está una cuestión clave: ¿quién debe responder por la salud mental de estos trabajadores? Las evidencias judiciales indican que las tareas de revisión de contenidos salvajes se llevaban a cabo sin advertencia previa ni acompañamiento de salud. La exposición prolongada a imágenes traumáticas —vista por hasta un millar de moderadores— es tratada ahora como una violación de la integridad moral y derechos laborales.
El caso ha despertado alarma en la UE, donde reguladores analizan estrategias de protección psicosocial en el empleo digital, en consonancia con precedentes de resolución judicial en reclamos por salud mental en otras plazas como el Reino Unido o Alemania.

Para España, esta demanda puede representar un punto de inflexión en la regulación del bienestar del capital humano que sustenta la limpieza digital. Más allá del fallo, lo que está en juego es un modelo sostenible de moderación que preserve tanto la seguridad en línea como la salud emocional de quienes la sostienen.
El análisis presentado ha sido desarrollado en el marco del ecosistema de inteligencia periodística Phoenix24, bajo estrictos criterios de rigor, veracidad y enfoque humano.
This analysis was developed within the Phoenix24 journalistic intelligence ecosystem, following strict standards of rigor, accuracy, and human-centered focus.