Moderador de contenido: El peor trabajo de Silicon Valley
Agencias
Trabajar para Google, Facebook o Microsoft suena a algo fantástico. Y sin embargo, existe un rubro de empleados de esas empresas que rara vez duran más de algunos meses (muchos renuncian el mismo día que comienzan), reciben bajos salarios y están vinculados por contratos frágiles.
Los moderadores de contenido son, según una investigación del diario Wall Street Journal (WSJ) el peor trabajo de Silicon Valley. Consiste en mirar incesantemente materiales dudosos para determinar si se pueden publicar (niños que juegan en un parque) o no (abuso de niños). Al final de una jornada de racismo, antisemitismo, violencia física, violencia sexual, zoofilia, asesinato de animales, pornografía, maltrato a menores, tortura, suicidio y hasta homicidio, muchos aceptan la terapia psicológica que ofrecen las empresas; a pesar de eso, se procesan actualmente al menos dos juicios de ex moderadores de contenido de Microsoft que aducen estrés post-traumático.
Cada día se suben a YouTube el equivalente a 65 años de videos y Facebook —que en 2017 dejó pasar varios videos violentos, entre ellos un homicidio en Cleveland y varios suicidios— recibe más de un millón de denuncias de sus usuarios sobre contenidos potencialmente objetables.
«Los empleados a veces renuncian el primer día, o el segundo», detalló WSJ. «Algunos salen para almorzar y no regresan. Otros siguen afectados por el trabajo —y lo que consideraron una falta de apoyo emocional y de valoración— mucho después de haber renunciado».
Un ex moderador de contenidos de Google dijo a la autora del artículo, Lauren Weber, que se volvió insensible a la pornografía luego de revisar esa clase de materiales todo el día. Imágenes de víctimas de guerra evisceradas; niños-soldados en el acto de matar; gatos torturados en el microondas: esas son algunas de las posibilidades rutinarias del trabajo. Pero lo que más afecta a este grupo de trabajadores son las imágenes de abuso sexual de niños. «Lo peor es saber que algunas de esas cosas les suceden a personas verdaderas«, dijo el ex revisor.
Cuando tanto se delega en la inteligencia artificial, ¿por qué no existen robots capaces de reemplazar a las personas en este campo? Los hay, pero todavía faltan años hasta que puedan realmente discriminar entre los contenidos insalubres y los demás, según dijo Eric Gilbert, informático de la Universidad de Michigan, a WSJ.
Como la moderación de contenidos se volvió un trabajo indeseado, las grandes empresas la delegan en subcontratistas: otras empresas les proveen de los empleados que, si bien trabajarán en las magníficas instalaciones de Silicon Valley —o no: también se contrata en la India, o en Filipinas—, no serán empleados de Facebook, Google o Microsoft.
Sarah Katz, una moderadora de contenidos de 27 años, revisaba 8.000 publicaciones diarias en Facebook hasta que renunció en octubre de 2016. Comía en la cafetería de Menlo Park pero su empleador era una empresa a la que contrataba otra empresa que brindaba personal a la empresa que fundó Mark Zuckerberg.
Ella ganaba USD 24 por hora; en general, en el área de la Bahía de San Francisco el salario de un moderador de contenidos oscila entre USD 13 y USD 28 por hora, lo cual difícilmente permite pagar una renta de 1.800 dólares por un apartamento de sala y dormitorio, para lo cual hay que probar ingresos de, por ejemplo, jornadas de 12 horas a USD 13.
Más allá de su sentido del humor negro, no contaba con otras herramientas —no recibió capacitación, por ejemplo— sobre cómo manejar la aflicción que causaba lo que hacía. La compañía que la red social utiliza para ofrecer hasta tres sesiones de terapia individual por año, PRO Unlimited, es también la empleadora directa de muchos de los moderadores a los que debe atender.
«Varios ex moderadores de contenidos de Facebook dicen que sólo tenían unos pocos segundos para decidir si algo violaba los términos de servicio de la empresa«, según WSJ. Aunque según la compañía no hay un tiempo específico determinado, en la práctica hay metas de productividad que lo imponen. También se jerarquizan las categorías de contenidos —el posible terrorismo, por ejemplo, se revisa primero—, por lo cual las demás van a una lista.
Shaka Tafari trabajó en la app de mensajería Whisper cuando se probó un formato para adolescentes. Lo preocuparon las numerosas referencias a violaciones y abusos sexuales que encontró en los mensajes, y en ocasiones vio fotos de zoofilia y de gente que mataba perros. Pero no tenía tiempo de procesar «los contenidos de psicópatas degenerados», como describió, porque los supervisores le mandaban un mensaje cuando observaban unos minutos de inactividad.
Aunque silencioso porque hace el trabajo sucio, el ejército de moderadores de contenido es numeroso. Facebook tenía 4.500 antes de los episodios del homicidio y los suicidios, cuando se comprometió a contratar 3.000 más. Susan Wojcicki, la CEO de YouTube, anunció que Google —parte de Alphabet, la empresa paraguas— ampliaría su equipo de revisión a más de 10.000, luego de que se hicieran oír quejas sobre videos que ponían en peligro a los niños.