Depuis le lancement du DLSS en 2018, Nvidia a progressivement renforcé sa présence dans le secteur de l’IA, en élargissant son portefeuille avec des outils comme Reflex et Broadcast. Au départ, le DLSS était confronté à des défis tels que l’artefacting. Cependant, avec les mises à jour et les avancées ultérieures, il est devenu une fonctionnalité essentielle, trouvant un équilibre entre la fidélité visuelle du ray-tracing et les fréquences d’images élevées recherchées par les joueurs.
En ce qui concerne l’avenir de l’IA dans les jeux vidéo, Nvidia semble avoir de nombreuses fonctionnalités innovantes en cours de développement au-delà du DLSS et de Reflex. Récemment, j’ai eu l’occasion d’explorer et de tester certaines de ces nouvelles fonctionnalités passionnantes lors du GeForce Nvidia RTX AI PC Showcase.
L’événement, dirigé par John Gillooly, responsable du marketing produit technique pour l’Asie-Pacifique Sud chez Nvidia, a présenté la vision de l’entreprise non seulement pour les jeux mais aussi pour le paysage du divertissement au sens large, complétée par des expériences pratiques avec ces technologies.
NVIDIA ACE : l’avenir de l’interaction avec les PNJ
En janvier 2024, Nvidia a dévoilé ACE (Avatar Cloud Engine). Cette suite s’appuie sur l’IA générative pour créer des personnages numériques interactifs ou PNJ. En substance, elle remplace les arbres de dialogue conventionnels par des conversations plus fluides, permettant aux joueurs de poser des questions aux personnages du jeu qui répondent en fonction de leur histoire.
Lors de la démonstration, Nvidia a présenté deux variantes d’ACE : l’une utilisant le prochain jeu Mecha BREAK et l’autre utilisant la démo Legends Tech de Perfect World.
La première démo de Mecha BREAK s’appuyait sur le cœur tenseur du GPU pour gérer le traitement de l’IA localement, ce qui permettait des interactions rapides avec une latence minimale, bien qu’avec des options de conversation limitées. J’ai pu demander au personnage de changer mon mecha équipé ou d’expliquer ses statistiques. Cependant, les questions dépassant le contexte du jeu aboutissaient souvent à la réponse suivante : « Désolé, je n’ai pas compris ça. »
De plus, la démo a connu plusieurs plantages, soulevant des inquiétudes quant aux performances, d’autant plus qu’elle était exécutée sur des systèmes RTX 4080 et 4090.
La deuxième démonstration a été réalisée avec NVIDIA ACE dans le cadre de la démo Legends Tech de Perfect World. Celle-ci a utilisé le cloud computing et ChatGPT pour interagir avec les joueurs, garantissant que le personnage reste cohérent avec son histoire tout en offrant des réponses aux questions des joueurs.
Dans ce décor médiéval fantastique, par exemple, le personnage pouvait guider les joueurs dans le choix ou l’utilisation des armes, même s’ils étaient ignorants des technologies modernes comme les voitures. Les réponses étaient légèrement retardées mais beaucoup plus naturelles par rapport à la démo précédente.
Après avoir testé les démos, je me sens sceptique et optimiste. Bien que cette technologie représente une nouveauté aujourd’hui, son impact potentiel sur les performances de mon GPU ou de ma connexion Internet soulève des questions. Son développement est encore précoce, ce qui rappelle les premières réactions au ray tracing, que de nombreux joueurs, dont moi-même, préféraient négliger au profit d’un FPS amélioré plutôt que d’un éclairage amélioré dans certains titres.
Pourtant, au cours des cinq dernières années, le ray tracing est devenu une fonctionnalité essentielle, le DLSS atténuant considérablement les baisses de performances. J’espère que Nvidia ACE connaîtra une trajectoire tout aussi brillante, ouvrant la voie à son adoption généralisée sans inconvénients substantiels en termes de performances.
Impressions pratiques des outils d’IA NVIDIA Audio2Face, ComfyUI et ChatRTX
Alors qu’ACE occupait le devant de la scène, d’autres outils d’IA remarquables ont également été présentés, tels qu’Audio2Face dans Nvidia Omniverse, ainsi que ComfyUI et ChatRTX.
L’outil Audio2Face est destiné aux développeurs et utilise l’IA pour générer de manière autonome des animations faciales qui s’alignent sur le dialogue. Cet outil va au-delà de la synchronisation labiale en simulant les expressions des muscles du visage pour produire des animations très réalistes.
Bien que la démo n’illustre pas de cas d’utilisation spécifiques, elle est très prometteuse pour les jeux multilingues, permettant des expressions faciales adaptatives adaptées à différentes langues audio.
ComfyUI et ChatRTX de Nvidia offrent des expériences utilisateur similaires à celles d’autres outils d’IA, mais soulignent leur capacité à fonctionner entièrement à l’aide de GPU Nvidia locaux, éliminant ainsi les problèmes de latence ou liés au serveur et offrant une solution nettement plus rapide.
Dans l’ensemble, la suite d’outils d’IA à venir de Nvidia semble très prometteuse et pourrait grandement améliorer l’industrie du jeu vidéo. Personnellement, j’ai hâte de voir Nvidia ACE implémenté dans les prochains titres de RPG, ce qui me permettra de m’immerger pendant des heures dans des mondes de jeu richement interactifs.
Laisser un commentaire