Facebook sin duda dejo de ser una simple red social desde hace muchos años y se convirtió en un fenómeno mundial, un ejemplo muy sencillo es su aplicación exclusiva para mensajería que hace menos de un año logró contar con mil millones de usuarios al mes, cifra que en ese momento solamente era superada por WhatsApp y la aplicación de Facebook que tiene una base de usuarios de dos mil millones de personas.
Con un número tan grande de personas activas se necesitan medidas especiales para controlar todo el contenido que se publica, en la actualidad existen algunos filtros y moderadores que se encuentran permanentemente vigilando la información que aparece en todo momento, pero existirán muchos casos que se deberán analizar los contextos antes de eliminar cualquier publicación y The Guardian logró tener acceso a varios documentos donde explican qué se puede publicar en la red social.
100 manuales especifican qué se puede publicar o no en Facebook
Uno de los ejemplos más grandes se vivió el mes pasado, cuando un Steve Stephens publicó un video en Facebook donde se mostraba cómo le disparaba a una persona, miles de usuarios reportaron ese video por lo que se bloqueó su cuenta, pero fue dos horas después por lo que mucha gente pudo ver el contenido, eso provocó que la empresa se pusiera a analizar sus políticas en las transmisiones y la censura de contenido.
Según The Guardian los moderadores que trabajan para la empresa se ven sobrepasados por la cantidad de información que deben de clasificar, teniendo solamente algunos segundos para decidir si los comentarios de la gente son correctos o se deben de censurar.
Entre los 100 manuales en los que se le especifica a los moderadores que se puede o no publicar en la red se encuentran elementos muy importantes que ponen el tema en un debate muy grande en cuestión de temas como el sexo, la violencia y el terrorismo.
Los puntos que pueden entrar a consideración
Un ejemplo muy claro es con Donald Trump, el presidente de los Estados Unidos, en el momento que alguien escriba algo como "Qué alguien le dispare a Trump" debe ser eliminado el comentario, ya que se trata de un jefe de Estado que se encuentra en una categoría protegida, pero la expresión "Que se muera" sí puede mantenerse en el sitio, ya que no cuenta como una amenaza creíble.
En los documentos la empresa admite que ese tipo de lenguaje violento es usado para expresar un tipo de frustración en línea, así que no viola el estándar de la comunidad y puede permanecer.
Para la violencia gráfica existen excepciones, en el caso de las muertes violentas algunas no son eliminadas ya que podrían generar una conciencia en la gente sobre diversas enfermedades mentales, en ese caso se marcan como "perturbadores".
Con las imágenes de abuso físico en menores de carácter no sexual no deben ser borradas, a menos que encuentren un elemento sádico o de celebración, ya que no se borrarán automáticamente para intentar que el niño sea identificado y se pueda hacer una denuncia.
En el abuso de los animales también se permiten compartir imágenes para generar conciencia, si el contenido es muy delicado solamente se clasifica como "perturbador", pero no es eliminado.
Los vídeos de abortos sí se encuentran permitidos, lo único que se pide es que no se muestren cuerpos desnudos, ya que serían eliminados de manera inmediata.
En el caso de los desnudos solamente se puede compartir si es arte creada a mano, el arte digital de los mismos temas no se permite.
Para las transmisiones que hace la gente en vivo donde se autoinflinge sí se permite, ya que ellos no pueden censurar ni castigar a personas que se encuentren en peligro.
Existen también las excepciones noticiosas, hace un año se eliminó una imagen muy importante de la guerra de Vietnam porque aparecía una niña desnuda, pero ahora ya se podrán publicar con esa excepción, aunque no se hace mención a la desnudez infantil que se encuentre en un contexto referente al Holocausto.
Las personas que cuenten con más de 100,000 seguidores se clasifica de manera automática como figura pública y ya tendrán la misma protección que un individuo privado.
Es imposible poder controlar el contenido de tantas personas
En inicios de mayo se mencionó que la empresa estaría contratando a 3,000 personas para seguir filtrando el contenido que se publica, teniendo un control sobre la información que para ellos podría considerarse adecuada.
Monika Bickert, responsable de la política global de Facebook mencionó que es muy complicado llegar a un consenso sobre lo que se puede permitir publicar o no en la red social
La comunidad es muy diversa y siempre existirán ideas sobre lo que se debe compartir, pero sin importar el limite, siempre existirán puntos grises donde tendremos problemas. Requiere mucha reflexión en base a preguntas muy detallados, seguimos trabajando muy duro y queremos que Facebook sea lo más seguro posible.
The Guardian preparó un ejercicio muy interesante, donde se nos pregunta si tenemos lo necesario para ser moderadores de Facebook, se nos presentan 16 imágenes y nosotros tenemos que decidir si las ignoramos o las borramos, cada vez que presionemos la respuesta nos indicará si es correcta en base a las políticas de la empresa.
Imágenes | Fortune, Forbes, keywordsuggests, CNBC
Ver todos los comentarios en https://www.xataka.com.mx
VER 1 Comentario