«Deja de explotar a tus trabajadores»: moderadores de contenido de Facebook protestan por sus bajos salarios con una valla publicitaria móvil

Un grupo de moderadores de contenido de Facebook subcontratados por Accenture están protestando en EE.UU. contra su empresa por los bajos salarios que reciben. Y lo han hecho a través de una valla publicitaria móvil dirigida a la directora ejecutiva de la consultora, Julie Sweet.

«Julie Sweet, deja de explotar a tus trabajadores», dice el cartel, que incluye una fotografía de la directiva y le insta a «pagar» y «arreglar» la situación. Instalado en un camión, el mensaje comenzará su recorrido desde Bethesda (Maryland), sitio de residencia de Sweet, hasta llegar a Washington D. C., detalla el portal The Verge.

Los trabajadores enviaron además una carta a Sweet para aclarar sus demandas con el apoyo de Foxglove, una organización legal británica sin ánimo de lucro. «El pago injusto es un problema que puede solucionar hoy (…) Accenture puede permitirse fácilmente pagar a cada moderador de contenido un salario digno que refleje el inmenso valor que ofrecen a su empresa», resalta un extracto de la misiva compartido por el diario The Hill.

Los moderadores aseguran que Accenture les paga 18,50 dólares por hora. Un informe de agosto de The New York Times señaló que quienes son contratados en EE.UU. ganan 16,50 dólares por hora, mientras que los que están en el extranjero a menudo ganan menos. Al mismo tiempo, la consultora recibe de Facebook aproximadamente 50 dólares por hora por cada moderador. Entre tanto, The Verge señala que Accenture ha ignorado reiteradamente las solicitudes de salarios más altos de los moderadores.

Esos trabajadores pasan largos turnos revisando y analizando enormes cantidades de contenido (publicaciones, fotos, videos) de Facebook para determinar si viola las políticas de la red social. Hay que procesar «de 250 a 350 elementos por día», comentó bajo anonimato a The Hill un experimentado moderador de la plataforma basado en Europa. El diario añade que la exposición a dicho material —muchas veces perturbador, de tono violento, sexual o discursos de odio— «deja un daño emocional duradero» en los empleados.

«A pesar de todo lo que se habla de algoritmos e inteligencia artificial que detectan contenidos dañinos para proteger a los 2.800 millones de usuarios de Facebook, nosotros y usted sabemos la verdad: los moderadores hacen el trabajo», señala la organización Floxglove en una carta a The Verge.

Si te ha gustado, ¡compártelo con tus amigos!

Comments

No comments yet. Why don’t you start the discussion?

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *