Forbes entrevistó a ex-trabajadores de la empresa Teleperformance, que fue conratada por TikTok para conseguir moderadores hacia la construcción de su propio algoritmo especial para detectar material que viola las condiciones de servicio de la plataforma. Algunos de los ex-trabajadores aseguraron al medio que, como parte de su capacitación, les fueron mostradas imágenes sin censura de niños y niñas siendo abusados sexualmente.
Las imágenes, dicen los ex-trabajadores, estaban en un documento de nombre DRR que no tenía vigilancia alguna y al que el personal podía acceder libremente. DRR son siglas para "Daily Required Reading", según los ex-trabajadores, lo que en español significa "lectura diaria obligatoria".
Las declaraciones que recopila Forbes en su investigación son perturbadoras. "Tengo una hija y no creo que sea correcto que un grupo de extraños esté viendo esto", dijo uno de los trabajadores al medio. Otra persona dijo que incluso llegó a contactar al FBI sobre la existencia del material y su manejo en Teleperformance y TikTok, empresas de las que cientos de trabajadores tendrían acceso a las imágenes. Solo la manipulación de este tipo de materiales debería tratarse como "contrabando", según la ex fiscal federal en Estados Unidos, Mary Graw, consultada por Forbes para su investigación.
El FBI no respondió a las preguntas de Forbes, pero TikTok sí dijo que los materiales de entrenamiento para la moderación de contenidos no incluyen ejemplos visuales sobre abuso sexual, aunque no aseguró lo mismo para empresas subcontratadas como Teleperformance. La red también dijo que no tiene los suficientes detalles para confirmar la existencia de DRR, el documento que reúne todos los materiales de entrenamiento denunciados por ex-trabajadores.
Por su parte, Teleperformance también negó a Forbes que la compañía utilice videos explícitos sobre niños siendo abusados en el entrenamiento de moderadores.
La investigación completa puede consultarse en el sitio de Forbes.
Ver 1 comentarios