Es lamentable, pero usar IA para desnudar personas está de moda: Google permitió que tutoriales para hacerlo se suban a YouTube

Diseno Sin Titulo 5
Sin comentarios Facebook Twitter Flipboard E-mail

Se ha dado a conocer que YouTube albergó más de 100 videos que promocionaban y enseñaban cómo podrías desnudar personas en fotografías y videos utilizando diversas herramientas de inteligencia artificial, afectando principalmente a mujeres. Este hecho ya ha causado problemas y entre las afectadas se encuentran menores de edad.

De acuerdo con información de Forbes, Google ya borró los videos, pero estos habían alcanzado hasta varios millones de visitas.

"Cuando veo u oigo sobre IA, él está ahí en mi cabeza"

Ese es el constante pensamiento de una mujer que sufrió las consecuencias de los deepfakes. Su caso, ocurrido durante 2023, terminó con la condena para un psiquiatra infantil que pasará 40 años en la cárcel por crear contenido de pornografía infantil, incluidas fotografías de la mujer mencionada. Según las declaraciones dadas a Forbes, las fotografías que usó como referencia fueron tomadas cuando ambos eran menores de edad y estaban en la secundaria.

Pero antes de continuar, ¿qué es el deepfake? El término deepfake proviene de la aleación de "deep learning" (aprendizaje profundo) con "fake" (falso), podría traducirse como "falsificación profunda". Se trata de una técnica de inteligencia artificial que se utiliza para generar videos e imágenes que parezcan auténticas. Pueden reemplazar el rostro de actores y actrices para colocarlas en el de otras personas, generar voz de alguien conocido o, con lo que atañe a la nota: crear desnudos.

Según lo compartido por Forbes, los videos encontrados en YouTube traspasaron fronteras, pues su investigación encontró que estudiantes de secundaria en España y Estados Unidos utilizaron una aplicación patrocinada por dichos videos, con el fin de crear desnudos de algunas de sus compañeras. Tal como le sucedió a la mujer mencionada al inicio, esto provocó problemas sociales como "vergüenza pública y ataques de pánico" en las menores.

Tardar en responder y el potencial de estas herramientas

Diseno Sin Titulo 6

En comparación con Apple, Google ha tardado bastante en identificar y responder a la situación. La compañía de la manzana tiene experiencia con este tipo de problemas. En 2019, cuando apenas estaba explotando el uso de la inteligencia artificial generativa, una aplicación que "desnudaba personas" utilizando deepfake fue eliminada de la AppStore apenas unas horas después de que comenzó a llamar la atención.

Por su lado, la tienda digital de Google suele ser más flexible en lo que se puede poner a la venta o para descarga en ella. En palabras de Tori Rousay, gerente de programas de defensa corporativa y analista de la NCOSE (una organización conservadora que tampoco se ha salvado de controversias), Google debe actuar de inmediato.

"Apple escuchó... Google debe hacer lo mismo. [...] Google necesita crear prácticas y políticas responsables en torno a la propagación del abuso sexual basado en imágenes".

Y es que la evolución de los deepfakes ha crecido tan rápido como la misma inteligencia artificial. De hecho, ya hay conceptos e ideas que podrían ser implementadas en productos como el Apple Vision Pro, como este diseño conceptual en el que se podría cambiar el rostro de la persona con la que estás conviviendo para ponerle el rostro de tu actor favorito.

La sala de comentarios en aquel post de Reddit está llena de usuarios mencionando el potencial sexual de esos desarrollos.

Contra los deepfakes de desnudos

Regresando al caso del psiquiatra infantil, llamado David Tatum, este pedófilo fue condenado en noviembre de 2023. Aparte de manipular imágenes de su novia de la secundaria, también fue acusado de abuso sexual a un menor de edad y de crear contenido con base a sus pacientes. El fiscal federal a cargo declaró para la web oficial de la Oficina Fiscal de Estados Unidos:

"Tatum también abusó del uso de inteligencia artificial de la peor manera posible: para victimizar a niños. La sentencia de hoy de 40 años subraya nuestros esfuerzos para hacer todo lo posible para hacer justicia a las víctimas infantiles. A medida que avanza el campo de la inteligencia artificial, mi oficina se compromete a perseguir a los depredadores que buscan explotar esta tecnología para infligir daño a los niños".

Definitivamente el uso de los deepfakes es una de las principales problemáticas a las que gobiernos y organizaciones se enfrentarán con la democratización de la inteligencia artificial. Es sumamente difícil perseguir a todas las aplicaciones y herramientas que sirvan para desnudar personas y generar material pornográfico falso. La misma Taylor Swift ha sido objeto de la creación de contenido similar, por lo que se requieren herramientas realmente efectivas para intentar mitigar el impacto de estos deepfakes.

Comentarios cerrados
Inicio