La actual batalla entre Mark Zuckerberg, CEO y cofundador de Meta (antes Facebook) y TikTok va más allá del tiempo que pasas en sus aplicaciones.
Un reportaje de Financial Times reveló que cientos de trabajadores encargados de moderar el contenido de Facebook e Instagram se han ido a TikTok, atraídos por mejores condiciones de trabajo.
Los usuarios de TikTok no escapan del contenido violento y nocivo. Por ello, la app de videos cortos reforzó sus equipos en Europa para controlar que las publicaciones cumplen con sus normas.
Desde enero de 2021, casi 200 personas provenientes de empresas de tercerización como Accenture, Covalen y Cpl, se han sumado a la sede central de Bytedance, matriz de TikTok, en Dublín.
En la capital irlandesa, la compañía tiene un «trust and safety hub», un centro dedicado a asuntos de prevención y seguridad. ByteDance también tiene este tipo de instalaciones en California y en Singapur, donde trabajan miles de moderadores.
Accenture, Covalen y Cpl proveen moderadores de contenido tercerizados a Facebook, Instagram, YouTube y Twitter. Sin embargo, TikTok ofrece puestos fijos internos en su compañía con salarios mucho más atractivo que sus rivales para estos perfiles.
Según el Financial Times, el personal contratado por la app china habla varios idiomas y tiene experiencia en algunas de las redes sociales mencionadas anteriormente monitorizando la clase de contenido que se publica.
«Elegí TikTok porque los beneficios son mejores, el ambiente es mejor y la empresa valora a cada miembro», dijo al medio un empleado de TikTok que se unió el año pasado desde Accenture. «Era mejor para mi carrera y quería trabajar desde casa, lo que era una batalla en Accenture».
La misión de los moderadores de contenido es filtrar y monitorizar todo aquello que puede resultar perjudicial o traumático para los usuarios dentro de una red social.
Durante sus jornadas de trabajo se cruzan con videos e imágenes espeluznantes; desde violaciones y mutaciones hasta decapitaciones y otras formas de violencia, por lo que es un trabajo que requiere una gran fortaleza mental.
Muchos los moderadores han denunciado que las plataformas no les protegen en sus puestos de trabajo y que a menudo, su salud mental se ha visto alterada por la cantidad de horas que se pasan frente a este tipo de imágenes.
Un ejemplo de ello es Candie Frzier, una ciudadana estadounidense que trabajaba para TikTok realizando estas tareas y que ha demandado a la compañía por el estrés que le generaba su trabajo.
De hecho, Facebook se enfrentó a un problema similar y tuvo que pagar 52 millones de dólares a un grupo de miles de moderadores de contenido de su plataforma que aseguraban haber quedado traumatizados tras el contenido que habían visto en la red social durante sus jornadas laborales.
Aunque sea un trabajo de riesgo, el moderador de contenido es una pieza fundamental en Internet; no solo filtra contenido violento, sino que está al tanto de posibles discursos de odio o publicaciones dedicadas a la desinformación.
Por esta razón, las plataformas parecen ser cada vez más conscientes de que deben reforzar estos equipos.
AHORA LEE: TikTok es la red social que más datos tuyos comparte con terceros
TAMBIÉN LEE: Las acciones de Meta caen 26% y sacude el mundo de la tecnología