La inteligencia artificial está mejorando muchos aspectos de nuestra sociedad. Automatiza procesos y mejora nuestras capacidades, pero, como toda herramienta, su uso depende de quien la empuña. Recientemente, se dio a conocer que una firma multimillonaria de Hong Kong perdió 200 millones de HKD (438 millones de pesos) debido a que un empleado de finanzas autorizó dicho pago a un deepfake del Director Financiero (CFO) de la empresa.
El empleado reporta que recibió un correo sospechoso, ya que parecía phishing, pero después de entrar a una llamada en la que estaba el falso CFO y también compañeros de trabajo generados con IA, bajó la guardia. Esta situación no es nueva para la fuerza policial de Hong Kong.
Según lo reportado por diversos medios, el superintendente de la Oficina de Ciberseguridad, Tecnología y Delincuencia, Baron Chan, explica que con anterioridad han dado seguimiento a casos de estafas mediante deepfakes. Sin embargo, en todas las anteriores, el contacto era solo entre dos personas; en esta ocasión, fueron varios individuos haciéndose pasar por otras personas. "Esta vez, en una videoconferencia multitudinaria, resulta que todos los que [vio] son falsos", dijo Chan.
De ese modo, el empleado hizo la transferencia de dinero, solo para darse cuenta al poco tiempo que había caído en una estafa. Esta situación enciende las alarmas, pues aunque afectó a una empresa con mucho dinero, es algo que puede suceder a distintos niveles y en distintos contextos.
El gran problema de los deepfakes
La tecnología deepfake ha superado todas las expectativas. Solo durante el mes de enero, podemos encontrarnos con noticias como que en New Hampshire, Estados Unidos, diversas personas recibieron llamadas con la voz de Joe Biden incitando a no participar en las elecciones primarias. Asimismo, alguien generó la voz del director del Instituto de Baltimore para "grabarlo" diciendo comentarios racistas.
Un caso aún más mediático fue el de Taylor Swift. También durante este enero, la polémica contra el deepfake se levantó cuando se encontró contenido explícito de la cantante, pero todo generado por inteligencia artificial generativa. Aquí hay un claro patrón que podemos identificar: generar videos con la voz y la imagen de una persona es relativamente sencillo con todas las herramientas que hay disponibles, a tal grado que cualquiera de nosotros podría hacerlo con un poco de esfuerzo. Sin embargo, detectar que son falsos suele ser un trabajo meticuloso y reservado para expertos.
En entrevista con Scientific American, Hany Farid, profesor de ciencias de la computación en la Universidad de California, Berkeley, y forense digital, menciona que se está volviendo muy complicado detectar este tipo de ataques.
"Cada vez es más difícil creer lo que leemos, vemos y oímos en Internet. Eso es preocupante, tanto porque va a haber personas víctimas de deepfakes como porque habrá gente que alegue falsamente la "defensa de la IA" para eludir responsabilidades. [...] La detección [se está volviendo] más difícil porque es sutil; es complicada; el listón está cada vez más alto. Puedo contar con los dedos de una mano el número de laboratorios del mundo que pueden hacerlo de forma fiable. Es desconcertante".
Momento de actuar
Este tipo de situaciones vuelven a abrir el debate de una regularización, sobre todo en países como México, donde aún no existe una reglamentación completa respecto a este tema. Aunque, incluso creando legislaciones, estas deben evolucionar a la par que la tecnología, y parece que esta va mucho más rápido que los procesos burocráticos.
La vulnerabilidad ante la manipulación digital abre las puertas a la búsqueda de una respuesta eficaz a través de regulaciones actualizadas y medidas de seguridad más robustas. La historia de la firma multimillonaria de Hong Kong y otros incidentes notables resalta la urgente necesidad de actuar. La cuestión no es solo cómo adaptarnos a esta era de deepfakes, sino también cómo, como sociedad, podemos garantizar una convivencia responsable con la inteligencia artificial en beneficio de todos.
De momento, será necesario mirar con ojo crítico lo que vemos en internet. Mientras no tengamos la certeza de que algo sea real o no, sobre todo para polémicas relacionadas con políticos y famosos, habrá que tomar todo con pinzas. Al final, hay una gran cuestión aquí: "¿Por qué las empresas pueden ofrecer estos servicios de IA sin ningún tipo de control? Los deepfakes no son una consecuencia imprevista de la IA generativa; esto era claramente predecible", como apunta Hany Farid.