NVIDIA ACE: la inteligencia artificial llega a "evolucionar" los videojuegos para interactuar con los personajes usando la voz

NVIDIA ha aprovechado el Computex 2023 para presentar sus últimas novedades de chips y otros productos enfocados en Inteligencia Artificial. Entre estos están sistemas de supercomputadoras para empresas, plataformas robóticas y asociaciones para generar contenido publicitario.

Sin embargo, uno de sus contenidos más interesantes de su anuncio fue el uso de la IA generativa para los juegos y para hacer "más sofisticados" a los personajes no jugables (NPC), convirtiéndolos en más inteligentes y dándoles mayores habilidades de conversación, llegando al punto que pueden responder a algo dicho directamente por el usuario.

De acuerdo con una demostración mostrada por la compañía, es posible interactuar con los personajes dejando de lado las opciones de diálogo que tradicionalmente se seleccionan, pudiendo usar la voz del jugador para interactuar con solo pulsar un botón.

Las tecnologías de IA de NVIDIA

Aunque el video de NVIDIA deja mucho a desear, pues incluye únicamente una sola interacción, se puede ver como la IA generativa reacciona al hablar de forma natural.

Para mejorar a los NPC, NVIDIA presentó su Avatar Cloud Engine (ACE) para juegos, un servicio que busca transformar los juegos para brindar inteligencia a los personajes con interacciones de lenguaje natural impulsadas por IA.

La demostración se hizo en colaboración con la empresa Convai, que puede ejecutarse tanto en la nube como de forma local utilizando el hardware de NVIDIA.

De forma adicional la compañía mostró otras tecnologías de IA generativa.

Para empezar está NeMo, que da modelos de lenguaje básico y herramientas de personalización para que se puedan ajustar los personajes del juego, permitiendo "historias de fondo y personalidades" de los NPC específicos adaptados al mundo del juego.

Con Riva, se pueden proporcionar capacidades de reconocimiento automático de voz (ASR) y texto de voz para permitir conversaciones en vivo y Omniverse Audio2Face para crear de forma instantánea animaciones faciales expresivas para los personajes del juego desde solo una fuente de audio.

Aunque no lo detallan en su comunicado oficial, The Verge pudo saber que la tecnología de ACE también se puede aplicar a más de un personaje a la vez, permitiendo que los NPC puedan comunicarse entre sí, aunque de momento se ha probado.

De parte de los desarrolladores ya se ha conocido que Ubisoft está trabajando en utilizar IA para generar los guiones y líneas de diálogo para sus NPC, convirtiendo las interacciones en más realistas.

Ver todos los comentarios en https://www.xataka.com.mx

VER 0 Comentario

Portada de Xataka México