Facebook (ahora Meta) reveló una serie de estadísticas sobre la cantidad de bullying, discursos de odio y acoso que se muestran en su plataforma. Estos datos publicados en su informe trimestral de transparencia, señalan que por cada 10,000 visualizaciones de contenido en la red social, 14 o 15 muestran elementos relacionados a bullying y acoso, mientras que en Instagram se da entre 5 y 6 veces por el mismo numero de vistas.
Para obtener estos números, Facebook hace uso de las métricas de "Prevalencia", una estadística con la que puede rastrear el contenido infractor que pasa por su sistema de detección. Esto representa la cantidad de contenido violatorio que la gente realmente ve y que aparece en la pantalla de alguien, de acuerdo con Guy Rosen, vicepresidente de integridad de la empresa.
Según la compañía, la métrica de prevalencia solo tiene en cuenta el contenido que Facebook e Instagram eliminan sin un informe de usuario, lo que significa que la estadística únicamente muestra una pequeña parte de todo el contenido de bullying en su plataforma, pues no siempre son fáciles de identificar por un sistema automatizado.
Este reporte viene a reforzar lo dicho en los Facebook Papers, documentos donde Frances Haugen mostró que la compañía estima que solamente pueden abordar entre el 3 y 5% de todos los discursos de odio en su plataforma, lo que hace que la gran mayoría pueda pasar desapercibido y "contaminar" otras fuentes de noticias.
A pesar de que Facebook está dando a conocer unas cifras en su propio informe de transparencia, esto no significa que sean las definitivas, pues como los sistemas automatizados no son capaces de detectar el contenido que esté en otro idioma que no sea el inglés, puede derivar en una distorsión del tamaño real del problema.
Meta todavía no puede eliminar el discurso de odio de sus redes sociales
En este informe la compañía señaló que el discurso de odio en la plataforma había disminuido por cuarto trimestre consecutivo, pasando de 0.05% del trimestre pasado a 0.03% durante este periodo. En Instagram también se reportó un caso similar, donde el discurso de odio pasó al 0.02% o alrededor de 2 de cada 10,000 piezas de contenido vistas en la plataforma.
A pesar de que estos números parecen bajo, todavía puede significar que millones de personas enfrentan discursos de odio todos los días, dada la gran cantidad de usuarios y piezas que se publican en las plataformas todos los días.
Para contrarrestar esto, Facebook también dio a conocer que se encuentran trabajando en un nuevo sistema de aprendizaje para sus inteligencias artificiales que permitiría entrenarlas más rápido. Esto significa que n lugar de depender de datos masivos para enseñarles a identificar algún contenido (en este caso discurso de odio), lo pueden hacer con una pequeña cantidad de ejemplos.
Sin embargo, la compañía no dio a conocer el tiempo que le tomará poner en práctica esta investigación, pues todavía se están desarrollando los avances en inteligencia artificial para clasificar estos contenidos.
Ver 1 comentarios