La alianza inesperada entre Google, Facebook, Apple y Discord tiene un fin único: buscar señales de explotación infantil en internet

Meta Discord Y Otras Empresas Tecnologicas Se Unen Para Combatir La Explotacion Y El Abuso Sexual Infantil En Linea
Sin comentarios Facebook Twitter Flipboard E-mail

Un grupo de empresas tecnológicas ha anunciado el lanzamiento de un nuevo programa. Con el nombre 'Lantern', tiene como objetivo facilitar la detección y el combate de la explotación y el abuso sexual infantil en línea (CSEA, por sus siglas en inglés).

El programa permite a las plataformas sociales compartir “señales” sobre la actividad y las cuentas que violan sus políticas contra el CSEA. Las señales pueden incluir información vinculada a las cuentas que infringen las políticas, como direcciones de correo electrónico y nombres de usuario, o palabras clave utilizadas para el grooming o comprar y vender material de abuso sexual infantil (CSAM, por sus siglas en inglés).

Un programa contra el abuso infantil

El programa 'Lantern' ha sido desarrollado durante dos años por la Tech Coalition, el grupo de empresas tecnológicas que desarrollan enfoques y políticas para combatir el CSEA en línea. Entre las plataformas que participan en Lantern se encuentran Discord, Google, Mega, Meta, Apple, Roblox, Amazon y Twitch.

Durante un programa piloto, la Tech Coalition afirma que Mega, el servicio de alojamiento de archivos, compartió direcciones que Meta utilizó para eliminar más de 10,000 perfiles,  páginas de Facebook y cuentas de Instagram.

Tech Coalition
“Debido a que el [abuso sexual infantil] se extiende a través de las plataformas, en muchos casos, cualquier empresa solo puede ver un fragmento del daño que sufre una víctima”.
Escribe la Tech Coalition en una entrada en su blog oficial.
“Para descubrir el panorama completo y tomar las medidas adecuadas, las empresas necesitan trabajar juntas”.

A pesar de las discrepancias sobre cómo abordar el CSEA sin coartar la privacidad en línea, existe preocupación por la amplitud del material, tanto real como los llamados deepfakes, en línea.

Lantern Infographic Blog Infografía de como funciona el programa 'Lantern'

En 2022, el Centro Nacional para Niños Desaparecidos y Explotados recibió más de 32 millones de informes de material de abuso sexual infantil (CSAM).

Un reciente estudio de RAINN y YouGov reveló que el 82% de los padres cree que la industria tecnológica, especialmente las empresas de redes sociales, debería hacer más para proteger a los niños del abuso y la explotación sexual en línea.

Comentarios cerrados
Inicio