Segun un informe de Forbes plantea preguntas sobre cómo el equipo de moderación de TikTok maneja el material de abuso sexual infantil, alegando que otorgó un acceso amplio e inseguro a fotos y videos ilegales.
Los empleados de un equipo de moderación de terceros llamado Teleperformance, que trabaja con TikTok entre otras compañías, afirman que les pidió que revisaran una hoja de cálculo inquietante llamada DRR o Lectura diaria requerida en los estándares de moderación de TikTok. La hoja de cálculo supuestamente contenía contenido que violaba las pautas de TikTok, incluidas “cientos de imágenes” de niños desnudos o abusados. Los empleados dicen que cientos de personas en TikTok y Teleperformance podrían acceder al contenido tanto dentro como fuera de la oficina, abriendo la puerta a una filtración más amplia.
Teleperformance negó a Forbes que mostrara a los empleados contenido de explotación sexual, y TikTok dijo que sus materiales de capacitación tienen “estrictos controles de acceso y no incluyen ejemplos visuales de CSAM”, aunque no confirmó que todos los proveedores externos cumplieran con ese estándar. “El contenido de esta naturaleza es aborrecible y no tiene lugar dentro o fuera de nuestra plataforma, y nuestro objetivo es minimizar la exposición de los moderadores en línea con las mejores prácticas de la industria. Los materiales de capacitación de TikTok tienen estrictos controles de acceso y no incluyen ejemplos visuales de CSAM, y nuestro equipo especializado en seguridad infantil investiga y hace informes a NCMEC”, dijo el portavoz de TikTok, Jamie Favazza.
LOS MODERADORES EN TODAS LAS PLATAFORMAS SE OCUPAN DEL MATERIAL DE ABUSO INFANTIL, PERO DENTRO DE LÍMITES ESTRICTOS
Los empleados cuentan una historia diferente, y como Forbes expone, es legalmente arriesgada. Los moderadores de contenido se ven obligados rutinariamente a lidiar con CSAM que se publica en muchas plataformas de redes sociales. Pero las imágenes de abuso infantil son ilegales en los Estados Unidos y deben manejarse con cuidado. Se supone que las empresas deben reportar el contenido al Centro Nacional para Niños Desaparecidos y Explotados (NCMEC), luego preservarlo durante 90 días, pero minimizar el número de personas que lo ven.
Las acusaciones aquí van mucho más allá de ese límite. Indican que Teleperformance mostró a los empleados fotos y videos gráficos como ejemplos de qué etiquetar en TikTok, mientras jugaba rápido y suelto con acceso a ese contenido. Una empleada dice que se puso en contacto con el FBI para preguntar si la práctica constituía una propagación criminal de CSAM, aunque no está claro si se abrió una.
Vale la pena leer el informe completo de Forbes, que describe una situación en la que los moderadores no pudieron mantenerse al día con el crecimiento explosivo de TikTok y se les dijo que vigilaran los crímenes contra los niños por razones que sentían que no cuadraban. Incluso para los complicados estándares de los debates sobre la seguridad infantil en línea, es una situación extraña, y si es precisa, horrible.