Desde el lanzamiento de DLSS en 2018, Nvidia ha avanzado progresivamente en su presencia en el sector de la IA, ampliando su cartera con herramientas como Reflex y Broadcast. Inicialmente, DLSS se enfrentaba a desafíos como la creación de artefactos; sin embargo, con las actualizaciones y los avances posteriores, se ha convertido en una característica esencial, logrando un equilibrio entre la fidelidad visual del trazado de rayos y las altas velocidades de cuadro que buscan los jugadores.
De cara al futuro de la IA en los videojuegos, Nvidia parece tener en desarrollo numerosas funciones innovadoras más allá de DLSS y Reflex. Recientemente, tuve la oportunidad de explorar y probar algunas de estas nuevas y emocionantes capacidades en la presentación de la GeForce Nvidia RTX AI PC Showcase.
El evento, dirigido por John Gillooly, gerente de marketing de productos técnicos para Asia Pacífico Sur en Nvidia, mostró la visión de la compañía no solo para los juegos sino también para el panorama más amplio del entretenimiento, complementada con experiencias prácticas con estas tecnologías.
NVIDIA ACE: el futuro de la interacción con NPC
Nvidia presentó ACE (Avatar Cloud Engine) en enero de 2024. Esta suite aprovecha la IA generativa para crear personajes digitales interactivos o NPC. Básicamente, reemplaza los árboles de diálogo convencionales con conversaciones más fluidas, lo que permite a los jugadores hacer preguntas a los personajes del juego que responden en función de su historia.
Durante la demostración, Nvidia presentó dos variantes de ACE: una utilizando el próximo juego Mecha BREAK y la otra utilizando la demo Legends Tech de Perfect World.
La primera demostración de Mecha BREAK dependía del núcleo tensor de la GPU para manejar el procesamiento de la IA localmente, lo que permitía interacciones rápidas con una latencia mínima, aunque con opciones de conversación limitadas. Pude pedirle al personaje que cambiara mi mecha equipado o que explicara las estadísticas. Sin embargo, las preguntas más allá del contexto del juego a menudo resultaban en la respuesta: «Lo siento, no pude entender eso».
Además, la demostración experimentó múltiples fallas, lo que generó preocupaciones sobre el rendimiento, especialmente porque se ejecutó en sistemas RTX 4080 y 4090.
La segunda demostración contó con NVIDIA ACE en la demostración de Legends Tech de Perfect World. En esta, se utilizó la computación en la nube y ChatGPT para interactuar con los jugadores, lo que garantizaba que el personaje se mantuviera coherente con su historia y, al mismo tiempo, ofreciera respuestas a las consultas de los jugadores.
En este entorno de fantasía medieval, por ejemplo, el personaje podía guiar a los jugadores en la elección o el uso de armas, aunque no tenían en cuenta la tecnología moderna, como los automóviles. Las respuestas se demoraban un poco, pero eran mucho más naturales en comparación con la demostración anterior.
Después de probar las demostraciones, me siento escépticamente optimista. Aunque esta tecnología representa una novedad hoy en día, su posible impacto en mi GPU o en el rendimiento de Internet plantea interrogantes. Todavía está en una etapa temprana de su desarrollo, lo que recuerda las reacciones iniciales al trazado de rayos, que muchos jugadores, incluido yo mismo, prefirieron pasar por alto en favor de una mayor cantidad de FPS en lugar de una mejor iluminación en títulos seleccionados.
Sin embargo, en los últimos cinco años, el trazado de rayos se ha convertido en una característica vital, y el DLSS ha aliviado significativamente las caídas de rendimiento. Tengo la esperanza de que Nvidia ACE siga una trayectoria igualmente brillante, allanando el camino para su adopción generalizada sin inconvenientes sustanciales de rendimiento.
Impresiones prácticas de las herramientas de inteligencia artificial NVIDIA Audio2Face, ComfyUI y ChatRTX
Si bien ACE ocupó el centro del escenario, también se mostraron otras herramientas de IA notables, como Audio2Face dentro de Nvidia Omniverse, junto con ComfyUI y ChatRTX.
La herramienta Audio2Face está enfocada en los desarrolladores y utiliza inteligencia artificial para generar de forma autónoma animaciones faciales que se alinean con el diálogo. Esta herramienta va más allá de la sincronización de labios, ya que simula expresiones en los músculos faciales para producir animaciones sumamente realistas.
Si bien la demostración no ilustró casos de uso específicos, es muy prometedora para los juegos multilingües, ya que permite expresiones faciales adaptadas a varios idiomas de audio.
ComfyUI y ChatRTX de Nvidia ofrecen experiencias de usuario similares a otras herramientas de IA, pero resaltan su capacidad de operar completamente utilizando GPU Nvidia locales, eliminando así la latencia o los problemas relacionados con el servidor y ofreciendo una solución significativamente más rápida.
En general, el próximo conjunto de herramientas de inteligencia artificial de Nvidia parece muy prometedor y tiene el potencial de mejorar enormemente la industria de los videojuegos. Personalmente, estoy ansioso por ver que Nvidia ACE se implemente en los próximos títulos de rol, lo que me permitirá sumergirme durante horas en mundos de juego altamente interactivos.
Deja una respuesta