La semana pasada Apple dio a conocer su sistema de análisis en iCloud para identificar imágenes de maltrato infantil. Ahora, a través de un documento, la compañía detalló la forma en que esta herramienta funcionará y algo hasta ahora no mencionado, cuál será el límite de coincidencias posibles antes de que la cuenta del usuario sea reportada a las autoridades.
Recordemos: al momento de subir una imagen a iCloud, el dispositivo del usuario ejecutará un análisis para determinar que contenidos hay en ese archivo, similar a categorizar nuestras fotografías por lugar o ubicación. De ser coincidente con alguna denunciada como Material de Abuso Sexual Infantil (CSAM), esta será marcada con un ticket y llegando a un número determinado de reportes, la cuenta del usuario será dada de baja del servicio y se pasará la información a las autoridades.
Apple ofrece nueva información para conocer cómo funciona la herramienta
En un comunicado, la compañía aclara que estas acciones al usuario solo se tomarán cuando alcance el umbral de 30 tickets (por el momento) de imágenes marcadas con contenido de abuso infantil, esto para evitar el margen de error que pueda existir por el sistema.
Solamente cuando la herramienta notifica a Apple que el usuario rebasó el límite tolerado, será cuando puedan desencriptar esas imágenes, pero no el resto del contenido de la galería, únicamente aquellas que fueron marcadas como coincidencias. En este proceso, Apple puede acceder a un derivado de la imagen original, como a una versión de baja resolución en cada coincidencia.

Tras ser desencriptado, el material marcado es revisado por humanos quienes confirman es material reportado como CSAM, tras lo que se procede a deshabilitar la cuenta infractora y a reportarlo a las autoridades. Esto elimina el riesgo de que el sistema automáticamente realice la baja de algún usuario por error, pues en todas las etapas posteriores a la notificación de coincidencias una persona es la encargada de continuar o no el proceso.
Otra información que también se dio a conocer, es que la base de imágenes no puede ser alterada por Apple, pues se alimenta del material que por lo menos dos organizaciones dedicadas a la seguridad infantil identifican. Además, estas organizaciones no deben estar operando bajo la misma jurisdicción, es decir, bajo el mismo gobierno, porque de lo contrario el material es descartado y como último filtro se utilizan auditores que revisan todo el material que se quiere anexar.
Ver 19 comentarios
19 comentarios
myboo9632
Entonces con tener 29 fotos o puros vídeos te libras
:v
xangoo
Eso mismo debería hacer telegram y WhatsApp es increíble con que facilidad se puede acceder material de pornografía infantil
goldn
No me imagino el difícil trabajo de los que deben revisar las fotos y ver todas esas bajezas humanas
furbi963
.... Haaaa
Me hace pensar, hace una semanas como evidencia se tenía que hacer (documentación) pedí que me enviaran fotos de un evento (era con niñas de nivel básico), yo esperaba que me enviaran a lo mucho una docena de fotos.
Me llegó un centenar de fotos por WhatsApp.
Lo primero que me vino a la mente fue, si alguien me ve con eso va a creer cosas que no son 😂😂😂🤦
Yo me preguntó conociendo que el algoritmo de YouTube suele faltar y mucho (reconocer los videos donde salen niños).
El algoritmo de Apple no me criminalizaria inmediatamente solo por recibir esas fotografías 🤷, aunado dudo que analicé el contexto en el cual las recibí. 👀
solrok
Los papás de antes hubieran sido reportados con las típicas fotos que tomaban a sus hijos al bañarse