Moderadors de contingut: "El feixisme està permès Facebook".
Ya en 2020, Facebook –ahora Meta– llegó a un acuerdo extrajudicial con un grupo de moderadores y moderadoras que habían denunciado a la compañía por trastornos psicológicos derivados directamente de su trabajo. Las quejas se remontaban, al menos, al año 2017, y algunas de las personas damnificadas presentaban estados de estrés postraumático. La empresa de Zuckerberg acordó desembolsar 52 millones de dólares en indemnizaciones, aceptando tácitamente su culpabilidad.
Diversas investigaciones secundan la tesis del daño psicológico grave, e incluso lo elevan más allá de trastornos concretos como la ansiedad o la depresión. En palabras de la psicóloga Jennifer Prieto Estévez, “la exposición repetida a contenido traumático alteró significativamente la percepción del mundo y aspectos de la vida cotidiana de los MCC [moderadores de contenido comercial]”. Laura lo encarna en su propia cotidianidad: “Yo tengo un sistema de vida muy diferente al que tenía antes [de pasar por la moderación de contenido]. Me agobian situaciones como que alguien se acerque demasiado a la vía del metro, por si va a hacer una barbaridad o a lo mejor me va a tirar a mí. Son escenas que vas repitiendo en tu cabeza automáticamente en el día a día, estás como en una alerta constante”.
La investigación de Prieto Estévez, publicada en la Revista Oficial de la Sección de Psicología y Salud del COPG, explica que estas personas no solo se enfrentan a escenas brutales, sino que lo hacen presionadas por cargas de trabajo agotadoras: “Se espera que revisen hasta 25.000 imágenes al día y entre 700 y 800 vídeos diarios, manteniendo una precisión del 95 %, con solo tres errores permitidos por mes”. Un nivel de perfección a la hora de analizar contenidos extremadamente delicados para el que disponen de apenas unos segundos por cada decisión.
A todo ello se suma la ausencia escandalosa de medidas de protección de la salud mental. Lo cuenta Robert Castro, con la indignación de quien ha oído el mismo relato repetido demasiadas veces: “Son unas secuelas graves para las que Meta presenta una desatención total. Tú estás jodidísimo porque acabas de ver cómo han decapitado a un bebé, pides ayuda y te envían a un psicólogo que te dice ‘Cómete un kiwi’ o ‘Vamos a pintar un mandala’. Es de locos, de no creer”.
En conversación con CTXT, esta víctima de los abusos de Meta comparte algunas de las experiencias a las que se vio sometida: “Yo estuve un año en la cola de suicidio, que eran vídeos en directo, y a mí no me preguntaron si yo podía estar en esa cola, si estaba bien o no estaba bien. Si no quieres, ya sabes dónde está la puerta. (...) En la cola de suicidios a mí se me ponía el cuerpo mal, la sangre te empieza a correr muy rápido. Te sientes como cuando tienes ganas de vomitar o algo así. Sientes una cosa muy rara en tu cuerpo, porque sabes lo que va a pasar y no sabes si lo vas a poder prevenir”. En esos casos, la tarea no es solo decidir si la retransmisión debe censurarse, también recae sobre la moderadora la responsabilidad de dar aviso a las autoridades para que traten de evitar que una persona se quite la vida. Ileana también tuvo que enfrentarse a ese tipo de contenidos: “Ciertamente podíamos ver uno de esos vídeos de perritos haciendo cosas divinas y acto seguido tenía la vida de una persona a un clic de mi mano”, explica. En semejante situación, contar con un protocolo de bienestar psicológico como el previamente descrito es “como mandar a un soldado a pelear con una navaja y un rifle de la Primera Guerra Mundial contra bombas nucleares”, resuelve Ileana.
La dinámica de externalización de las labores de moderación a través de subcontratas es el modo en que “funcionan sistemáticamente” tanto Meta como TikTok, según Robert Castro. Ocultar el altísimo coste de sus negligencias es prioritario desde que en Silicon Valley, donde estaban los primeros centros de moderación, empezaron a ser conscientes de lo que suponía enfrentarse a esas imágenes a diario: “Se llegó al punto extremo de que en los baños de las oficinas de moderadores de Silicon Valley hacían pintadas en la pared con excrementos, algo que solo se ve en centros psiquiátricos”, desvela Castro. Y sigue: “En EEUU estos centros cierran en 2018, que es justo el año en que abren el de Torre Glòries en Barcelona (...) Y este centro acabó igual, literalmente con esa imagen de gente haciendo pintadas con excrementos en la pared de los baños”.
Para Ileana no hay duda de la intencionalidad de las big tech a la hora de operar así: “Todas estas empresas ya saben que, a partir del segundo año trabajando como moderador de contenido, el cuerpo va a empezar a fallar. Ahí vienen los dolores de cabeza, las migrañas, el insomnio, los malestares estomacales, las arritmias, etcétera. Y acto seguido va a venir una riada de bajas por ansiedad, por estrés y por depresión, incluso suicidios. La empresa ya tiene un discurso para decir ‘pero nosotros no fuimos los culpables, él o ella ya tenía problemas psicológicos’. Y tan sencillo como que bajan persianas en un sitio y las abren en otro”. El hecho de subcontratar las labores de moderación es clave para poder disfrutar de tal impunidad.
En realidad, para gigantes como Meta o TikTok las personas que componen estas plantillas de moderación son poco más que subhumanos. “El trabajo de los moderadores se reduce al solo clic físico que ordena eliminar o aceptar los contenidos revisados”, sostiene el investigador Ronald Durán Allimant. Así, los criterios morales son suprimidos en las jornadas formativas para hacer de estas personas meros autómatas al servicio de la ideología de los dueños de la empresa. Lo cuenta bien un reportaje publicado en elDiario.es en 2019. “El fascismo está permitido por Facebook”, decía uno de los trabajadores, que aseguró también la existencia de presiones para blanquear la violencia sionista en Palestina.
La inacción gubernamental ha permitido a estas multinacionales seguir multiplicando sus beneficios a costa de convertir la vida de miles de personas en un infierno. La buena noticia es que todo apunta a que eso va a terminar pronto. El año pasado se puso en marcha la primera alianza internacional de moderadores y moderadoras de contenido. El acto fundacional tuvo lugar en Kenia, país que acoge también una demanda colectiva contra Meta de la que habla Robert Castro: “Tenemos contacto con los abogados de Kenia y con algún líder sindical de allí. Es maravilloso poder estar coordinados”. El abogado es optimista con respecto al futuro inmediato: “Estamos haciendo historia, aunque suene pretencioso. A toda esta monstruosidad había que pararle los pies, y creo que se está haciendo”.
Por su parte, Ileana reconoce que su objetivo no es tanto la compensación económica, sino “que los gobiernos tomen conciencia, porque lo que parece ser un avance tecnológico tiene un costo muy alto en la salud del consumidor y en la de los y las trabajadoras que estamos detrás”.
Diego Delgado, "Estuve un año en la cola de suicidio, con ideos en directo. Nunca me preguntaron si estaba bien, ctxt 01/04/2026
Comentaris