Apple reportará a las autoridades fotos de maltrato infantil que sean detectadas en iCloud. Según ha explicado la compañía, esto es parte de sus esfuerzos para proteger a los menores y evitar el uso de sus herramientas de comunicación por parte de depredadores, así como evitar la propagación de material de abuso sexual infantil en Estados Unidos.
El sistema de detección de Material de Abuso Sexual Infantil (CSAM por sus siglas en inglés) usará un procesado llamado hash, en el cual las imágenes se transforman en un conjunto de números con un patrón único correspondiente a esa imagen, explica Apple, similar a un sistema de categorización de fotos.
Las pruebas de la nueva función de protección a los menores comenzaron este jueves, como reportes previos apuntaron, pero llegará a todos los usuarios de iOS 15, iPad 15 y macOS Monterey con una actualización más adelante en el año.
Apple podrá ver las fotos en iCloud, pero solo si es necesario
El escaneo de imágenes se realizará en las fotos e imágenes almacenadas en iCloud, desde iPhone, iPad y mac. Sin embargo, Apple asegura que el proceso de escaneo hash es seguro y usa avanzados sistemas de criptografía tanto en los dispositivos como en los servidores de Apple para mantener la privacidad de la información de los usuarios.
El proceso hash, explica Apple, no analiza las imágenes como tal, solo los hashes (conjunto de números correspondiente a cada imagen) generados, y los compara con una base de datos de hashes provista por el Centro Nacional para Niños Desaparecidos y Explotados (NCMEC, por sus siglas en inglés). El proceso de comparación se realiza directamente en el dispositivo del usuario, no en la nube, complementa Apple.
Si Apple detecta cierto número de potenciales archivos infractores en una cuenta de iCloud, el sistema cargará un archivo que permitirá a Apple desencriptar los archivos en la nube y una persona revisará manualmente las imágenes de la cuenta para ver si coinciden con material de abuso infantil. Si el encargado de la revisión determina que el sistema detectó correctamente el material de abuso, deshabilitará la cuenta de iCloud del usuario, y notificará al NCMEC o a las autoridades de la ley en caso de ser necesario. Los usuarios podrán enviar una apelación a Apple si creen que su cuenta ha sido suspendida por error.
Finalmente, Apple asegura que su sistema ha sido desarrollado para funcionar solo con la detección de hashes en la base de datos del NCMEC. Apple asegura que no puede añadir nuevos patrones de hash de otra tipo de imágenes, lo cual imposibilita su uso para otros fines diferentes a la protección de menores. Además, también se trabaja en conjunto con expertos en criptografía para asegurar que el sistema puede detectar imágenes de explotación infantil, pero sin comprometer la privacidad de la información en la nube de los usuarios.
Ver 7 comentarios