noscript
Cómo es el devastador trabajo de ser moderador de Facebook
LOS ENCARGADOS DE “BAJAR” LOS CONTENIDOS INAPROPIADOS

Cómo es el devastador trabajo de ser moderador de Facebook

Algunos críticos de las redes sociales dicen que son “cloacas” donde la gente aprovecha para jugar a convertirse del doctor Jekyll en el señor Hyde y liberar odio, violencia y prejuicios. Pero la realidad supera larga –y terriblemente- a la ficción. Por eso decenas de empleados con su psiquis destrozado están demandando a las empresas de Marck Zuckerberg.

Compartir

"Trabajamos con un equipo de psicólogos que toma pruebas sobre los posibles candidatos para testear su ‘resiliencia’", decía cinco años atrás a un diario argentino un vocero de la empresa que selecciona a los “moderadores” de contenidos de Facebook. Los moderadores son esas personas que pasan horas escaneando las publicaciones que aparecen en la red social más famosa. Pero parece ser que tienen que tener mucho más que “resiliencia” para cumplir su tarea.

“En mi cabeza ahora solo hay muerte. Muerte, sangre, dolor, miedo. Miedo todo el tiempo. Miedo de salir a la calle, miedo de quedarte en casa, miedo de recordar, miedo de dormir”, contó un joven que durante cinco años tenía que buscar publicaciones que por su violencia, mal gusto o –directamente- ilegalidad no pueden ser difundidas. Algunos críticos de las redes sociales suelen catalogarlas de “cloacas”. Pero después de conocer el contenido que filtran jóvenes como este podría decirse que las redes son coloridos campos de flores primaverales.

Esta es una descripción general, porque el joven que da el testimonio trata de no evocar puntualmente algunos de los videos terribles subidos por usuarios de la empresa de Meta -que además de Facebook tiene a Instagram y Whatsapp- y que él tuvo que bloquear. El del asesinato en vivo de un bebé por parte de su padre alcoholizado, es uno de los que –dice- lo acosan constantemente aun cuando pasó mucho tiempo desde que lo vio.

Una oferta tentadora, pero…

Uno de los mayores cuarteles generales de revisión de contenidos de Facebook en español se encuentra en Barcelona. Según narró el joven al moderador al diario diario español La Vanguardia, tenía 19 años cuando, recién llegado de Brasil, en 2018, entró a trabajar allí. En 2020 la empresa –subcontrata por Meta- es comprada por el grupo canadiense Telus International, y es la encargada de moderar los contenidos en Facebook e Instagram.

Solo en Barcelona esta empresa cuenta con 2.030 personas, la mayoría de ellos “guardianes” de la red social. Pero resulta que un 20% de ellos vive de licencia médica… En buena medida, a causa de los estragos que provoca en sus psiques la visión permanente de material escabroso, como es el caso del joven entrevistado con resguardo de su identidad.

El chico llegó tentado por la oferta. Recién llegado de Brasil, le ofrecieron unos dos mil euros –mucho más que lo que ganaba en su anterior empleo de camarero- y ponía un pie en una de las multinacionales más relevantes del presente. “Las oficinas eran impresionantes y era meter un pie en Facebook”, recuerda. No pedían formación ni experiencia y solo le exigieron que estudiara las políticas de la empresa de Mark Zuckerberg y sobre ellas tomar decisiones rápidas sobre si una foto, vídeo o texto debían ser retirados. Pero remarcó que no le advirtieron sobre la cantidad y la la dureza del contenido al que sería expuesto…

El sueño se pronto se volvió una pesadilla. Empezó, con material “livianos”. Y a los dos meses, por sus buenos resultados, le asignaron al “grupo de alta prioridad”, el equipo encargado del contenido más salvaje. “Asesinatos brutales, desmembramientos, torturas, violaciones, suicidios en directo, niños siendo abusados. Lo peor de los humanos”, resumió en un testimonio en el que en varios momentos se le quiebra la voz.

Le bastaron unas semanas para sentir que no quería estar ahí. Pidió volver al contenido suave, pero se lo negaron. Ahí empezaron entonces las manifestaciones clínicas de ese exceso: las pesadillas, el insomnio, las ensoñaciones violentas. Pero necesitaba el dinero y aguantó…

El primer ataque de pánico

Hasta que llegó el primer ataque de pánico. “Fue por un suicidio en directo. Facebook tiene una política estricta de cuándo hay que avisar a la Policía. No puede ser simplemente porque alguien diga que se va a matar: debe haber un arma, una soga, una ventana abierta a la vista. A menudo ocurre que la persona saca una pistola escondida y se mata sin que puedas hacer nada. Ese día fue así, pero peor, porque el tipo utilizó un arma muy grande. Todo era sangre y sesos. Me caí al suelo, no podía respirar. Pedí ver a la psicóloga de la empresa, me atendió pasada una hora. Solo hablé yo. Cuando acabé me dijo que hacía un trabajo muy importante para la sociedad y tenía que ser fuerte. Y que el tiempo se había acabado y debía volver a mi puesto”.

Por la reiteración de estas experiencias, el joven contó que muchos de sus compañeros se " se van de licencia. Algunos en los primeros días, otros después de mucho tiempo, como yo"… De todos modos, “mucho tiempo” fueron para él dos años. En 2020 se fue de la empresa, pero las escenas como las del asesinato del bebé –cuyo relato no se reproduce en esta nota de Democracia por lo terribles que resultan- le resultan imborrables.

Tanto que cinco años después, con jóvenes 25 años, el joven moderador continúa bajo tratamiento psiquiátrico, toma cinco medicamentos distintos y un día es bueno si no tiene más de dos ataques de pánico. Mientras lucha por curarse, mantiene en otra batalla, en este caso judicial, contra la empresa que lo contrató. Denunció a su ex empleador a poco de dejar su puesto y en 2022 el gobierno de Barcelona sancionó a Telus con una multa de 40.985 euros “por no evaluar los riesgos psicosociales de un trabajador”.

La empresa apeló, en tanto que el joven abrió otras demandas laborales paralelas para que se le reconozca su enfermedad como accidente de trabajo y le declaren la incapacidad permanente total como consecuencia directa de ese accidente.

Más y más demandas

Pero el suyo no es el único caso. A Telus –y a Meta como responsable última– le llueven los juicios por daños y perjuicios. Las causas van desde vulnerar los derechos de los trabajadores, así como las demandas por lesiones por imprudencia grave y contra la integridad moral.

“La empresa es plenamente consciente de lo que ocurre, de que está generando masas de jóvenes enfermos, y ni se responsabiliza ni hace nada para remediarlo”, declaró Francesc Feliu, abogado de uno de los querellantes. En Irlanda, donde Meta tiene su sede europea, 35 moderadores presentaron ya demandas judiciales en este sentido.

Pero fue EE.UU. el país precursor de estas acusaciones contra Meta. Y fue así que en 2020 Facebook indemnizó con 52 millones de dólares a más de 11.000 moderadores. En Kenia, otros 184 han denunciado a Meta y a dos empresas subcontratadas.

Acusada de fomentar la desinformación, ataques violentos e incluso genocidios con sus algoritmos, diseñados para priorizar la interacción (y el beneficio económico) ante la seguridad, Meta ha invertido miles de millones y contratado a 40.000 personas, incluidos 15.000 moderadores a través de terceras empresas. “Contamos con más de 20 centros en diversos países, donde estos equipos pueden revisar contenido en más de 50 idiomas”, asegura en su web.

Meta informa cada trimestre del volumen de contenidos que retira. En el segundo del 2023, fueron 7,2 millones de contenidos por abuso sexual a niños, otros 6,4 millones por suicidio y autolesión de Facebook, 6,2 millones por violencia en Instagram, 17,5 millones por discurso de odio en Facebook. Pero la lista de motivos es todavía más extensa…

 

Comentarios