Apple revela que retrasa su plan de escanear los iPhone y iCloud en busca de imágenes de abuso infantil. En su comunicado oficial explica que debido a la controversia causada por sus medidas, se tomará un tiempo para escuchar el feedback de los usuarios y mejorar su sistema.
El comunicado oficial de Apple dice lo siguiente:
El mes pasado anunciamos planes para prestaciones destinadas a ayudar a proteger a los niños de los depredadores que utilizan herramientas de comunicación para reclutarlos y explotarlos, y limitar la propagación del material de abuso sexual infantil. Basándonos en el feedback de los clientes, los grupos de defensa, los investigadores y otros, hemos decidido tomarnos más tiempo en los próximos meses para recopilar aportaciones y hacer mejoras antes de publicar estas prestaciones de seguridad infantil de importancia crítica.
El mes pasado Apple presentó el sistema de detección de Material de Abuso Sexual Infantil (CSAM por sus siglas en inglés), el cual analiza la biblioteca de imágenes cargadas a iCloud de los usuarios, aunque no directamente como imágenes sino usando un proceso llamado hash que convierte las imágenes a grupos de números con un patrón específico.
Una vez creado el patrón de cada imagen, el sistema lo compara con una base de datos de hashes provista por el Centro Nacional para Niños Desaparecidos y Explotados (NCMEC). Sin embargo, el proceso generó controversia por la posible vulneración de la privacidad de los usuarios. Además, críticos y expertos de seguridad también argumentaron sobre posibles futuras implicaciones del sistema para buscar y censurar contenido diferente al de la explotación infantil.
El lanzamiento de este plan y sistema de escaneo de imágenes estaba planeado para ocurrir junto con iOS 15. Sin embargo, ahora con este retraso es seguro que no se verán pronto, además de que Apple no menciona una posible nueva fecha de implementación.
Portada - Unsplash
Ver 4 comentarios