Un directivo de Ferrari tuvo una idea fantástica para evitar una estafa con deepfakes: preguntar al estafador algo que solo el CEO conoce

Ferrari Deepfake Directivo
Sin comentarios Facebook Twitter Flipboard E-mail

La inteligencia artificial ha transformado nuestras vidas, muchas veces para bien. Por desgracia, la IA también se ha convertido en una herramienta peligrosa cuando se usa de forma malintencionada. Un ejemplo es el intento de estafa a Ferrari con una deepfake que imitaba a su CEO. Afortunadamente, la víctima esta vez supo desactivar el engaño con una simple pregunta.

De acuerdo con Bloomberg, la historia comienza un martes por la mañana, cuando un directivo de la prestigiosa marca de autos de lujo comenzó a recibir una serie de mensajes inesperados, aparentemente del mismísimo CEO, Benedetto Vigna.

Oye, ¿te has enterado de la gran adquisición que estamos planeando? Podría necesitar tu ayuda”, decía uno de los supuestos mensajes de WhatsApp enviados por  Vigna. Sin embargo, estos no parecían provenir de su número habitual y la foto de perfil también levantaba sospechas.

La conversación continuó con más mensajes. "Prepárate para firmar el acuerdo de confidencialidad que nuestro abogado está a punto de enviarte", indicaba otro de los mensajes del estafador y luego le solicitaba mantener todo en secreto. "El regulador del mercado italiano y la bolsa de Milán ya han sido informados. Mantente alerta y por favor discreción máxima".

Afortunadamente, el directivo que recibió estos mensajes detectó rápidamente que esa serie de textos no eran normales. Incluso sospechó de los mensajes de voz, a pesar de que estos imitaban a la perfección la voz de Vigna.

A medida que avanzaba, la historia se volvía más sospechosa para el directivo. Para justificar el número diferente, el deepfaker explicó que se debía a la confidencialidad del trato, ya que China podría tratar de obstaculizar el trato.

Bastante extrañado por la situación, el directivo decidió que era hora de confirmar que se trataba de un engaño. Le dijo a su interlocutor "disculpa, Benedetto, pero necesito identificarte". Entonces le preguntó cuál era el título del libro que Vigna le había recomendado hacía unos días. Y de repente la llamada se cortó.

Ferrari ha abierto una investigación interna. No obstante, como indica Bloomberg, los representantes de la marca no han querido hacer comentarios. El directivo actuó con rapidez gracias al uso de un método conocido como "contraseña familiar", que permite asegurarnos de que realmente hablamos con la persona que creemos.

¿Qué es una deepfake?

Ai Generated 8780351 1280

De acuerdo con el Instituto Politécnico Nacional, se trata de un video, una imagen o un audio generado para imitar la apariencia y la voz de una persona. Son representaciones creadas por la IA, tan convincentes, que muchas veces no podemos percibir que estamos frente a algo ficticio.

Las deepfakes se generan utilizando redes neuronales que aprenden los rasgos faciales, expresiones y la forma de hablar de una persona para luego recrearlos digitalmente.

Originalmente, esta tecnología se usaba en entretenimiento, como en películas, para mejorar efectos visuales. Sin embargo, en los últimos años, los criminales han empezado a usarla para suplantar identidades, o incluso para crear, ilegalmente, contenido sexual de otras personas.

Ciberseguridad Deepfake

Tendencia en auge

El de Ferrari no es el primer intento de este tipo de hacerse pasar por un ejecutivo de alto perfil. A principios del 2024 te contamos que una empresa multinacional perdió 200 millones de dólares de Hong Kong (438 millones de pesos) después de que los estafadores engañaran a sus empleados con tecnología deepfake.

En aquella ocasión, los estafadores fabricaron representaciones del director financiero de la empresa y otras personas en una videollamada y convencieron a la víctima de que transfiriera dinero.

Inicio