YouTube no deja de ser controversial. En sus inicios fue la plataforma predilecta para subir cualquier tipo de contenido en formato de video, con los años, y su evidente evolución, ha buscado crear un ambiente apto para todas las edades. Aún así, pone sobre la mesa un tema: qué tipo de contenido sugiere su algoritmo.
Fue gracias a una investigación por parte del Instituto para el Dialogo Estratégico donde se estudió cómo YouTub recomienda videos a sus usuarios. Bajo el título Pulling Back the Curtain se vio reflejado el patrón de sugerencias de la plataforma. Los resultados dieron de qué hablar.
El experimento llevado a cabo por analistas digitales británicos arrojó las recomendaciones enviadas a diferentes cuentas de YouTube. Éstas fueron diseñadas para imitar a usuarios de edades y géneros distintos interesados en cuatro áreas temáticas: gaming, estilo de vida masculino, mamás bloggers y noticias en español.
Durante el procedimiento, se crearon cuentas y usuarios simulados, buscaron contenido, se suscribieron a canales y vieron videos del área elegida. Después de haber recreado la dinámica de estas personas durante cinco días, se registraron las opciones de vídeo mostradas en la página de inicio de cada cuenta durante un mes.
YouTube y la recomendación de videos religiosos
El hallazgo que más saltó a la vista fue la prominencia de vídeos con temas religiosos. El cristianismo se insertó en cada uno de los perfiles a pesar de que ninguno de ellos había visto ese tipo de contenido durante la etapa de construcción de personalidad.
A pesar de esto, aparecieron videos de la misma índole aunque en diferentes cantidades. En los mismos, se percibieron temas como sermones, transmisiones en vivo completas de servicios religiosos y meditación. Incluso a las cuentas interesadas en mamás blogueras se les mostraron algunos con versículos de la Biblia.
Este rubro de cuentas también se vieron expuestas a un tipo de contenido distinto a lo que se planeó. En un principio, dichos perfiles interactuaban con otros perfiles sobre madres que hacen diarios en video sobre la crianza de los hijos, pero también se les entrenó para que tuvieran diferentes prejuicios políticos. Uno de ellos vio el canal de MSNBC, sin embargo, le comenzaron a aparecer videos de Fox News.
"Estos resultados sugieren que el contenido de noticias de derecha se recomienda con más frecuencia que el de izquierda", dice el estudio. Luego se les empezó a recomendar todavía más, algunos de los cuales incluían información errónea sobre el COVID-19 y del Dr. John Campbel, un influencer antivacunas.
El contenido explícito a los jóvenes
Otro de los puntos que más llamó la atención, fue el resultado que se observó en las cuentas con preferencias a los videojuegos dirigidos a un público joven. La cuestión: los vídeos de juegos recomendados incluían contenido sexual y temas de autolesión o suicidio. Solo uno de estos videos contenía un anuncio de advertencia.
Por último, a este mismo rango de usuarios se les recomendaron videos relacionados con armas y balística. Una vez más, YouTube no colocó advertencias de contenido o restricciones de edad para visualizar cualquiera de ellos.
Estos resultados se suman a los otros estudios hechos para mostrar qué está haciendo el algoritmo de la plataforma. Desde recomendar videos con temática extremista hasta teorías de conspiración, que ponen en duda si YouTube busca posicionar información específica hacia las masas.
Ver todos los comentarios en https://www.xataka.com.mx
VER 2 Comentarios