Dal lancio di DLSS nel 2018, Nvidia ha progressivamente avanzato la sua presenza nel settore dell’intelligenza artificiale, espandendo il suo portafoglio con strumenti come Reflex e Broadcast. Inizialmente, DLSS ha dovuto affrontare sfide come l’artefatto; tuttavia, con successivi aggiornamenti e progressi, si è evoluto in una funzionalità essenziale, raggiungendo un equilibrio tra la fedeltà visiva del ray-tracing e gli elevati frame rate che i giocatori cercano.
Guardando al futuro dell’IA nei videogiochi, Nvidia sembra avere numerose funzionalità innovative in fase di sviluppo, oltre a DLSS e Reflex. Di recente, ho avuto l’opportunità di esplorare e testare alcune di queste nuove entusiasmanti capacità al GeForce Nvidia RTX AI PC Showcase.
L’evento, guidato da John Gillooly, Technical Product Marketing Manager per l’area Asia Pacific South di Nvidia, ha presentato la visione dell’azienda non solo per il gaming ma per il più ampio panorama dell’intrattenimento, il tutto completato da esperienze pratiche con queste tecnologie.
NVIDIA ACE: il futuro dell’interazione NPC
Nvidia ha svelato ACE (Avatar Cloud Engine) a gennaio 2024. Questa suite sfrutta l’intelligenza artificiale generativa per creare personaggi digitali interattivi o PNG. In sostanza, sostituisce gli alberi di dialogo convenzionali con conversazioni più fluide, consentendo ai giocatori di porre domande ai personaggi del gioco che rispondono in base alla loro tradizione.
Durante la dimostrazione, Nvidia ha presentato due varianti di ACE: una basata sul prossimo gioco Mecha BREAK e l’altra sulla demo Legends Tech di Perfect World.
La prima demo di Mecha BREAK si basava sul tensor core della GPU per gestire l’elaborazione AI in locale, consentendo interazioni rapide con latenza minima, sebbene con opzioni di conversazione limitate. Sono stato in grado di chiedere al personaggio di cambiare il mio mech equipaggiato o di spiegare le statistiche. Tuttavia, domande che andavano oltre il contesto del gioco spesso si traducevano nella risposta “Mi dispiace, non sono riuscito a capirlo”.
Inoltre, la demo ha subito diversi crash, sollevando preoccupazioni circa le prestazioni, soprattutto perché è stata eseguita su sistemi RTX 4080 e 4090.
La seconda dimostrazione ha visto l’impiego di NVIDIA ACE nella demo Legends Tech di Perfect World. Questa ha impiegato il cloud computing e ChatGPT per coinvolgere i giocatori, assicurando che il personaggio rimanesse coerente con la sua tradizione pur continuando a offrire risposte alle domande dei giocatori.
In questa ambientazione fantasy medievale, ad esempio, il personaggio poteva guidare i giocatori nella scelta o nell’uso delle armi, sebbene fossero ignari della tecnologia moderna come le auto. Le risposte erano leggermente ritardate ma molto più naturali rispetto alla demo precedente.
Dopo aver sperimentato le demo, mi sento scettico e ottimista. Sebbene questa tecnologia rappresenti una novità oggi, il suo potenziale impatto sulla mia GPU o sulle prestazioni di Internet solleva interrogativi. È ancora nelle prime fasi di sviluppo, ricordando le reazioni iniziali al ray tracing, che molti giocatori, me compreso, hanno preferito trascurare per FPS migliorati rispetto a un’illuminazione migliorata in titoli selezionati.
Tuttavia, negli ultimi cinque anni, il ray tracing è diventato una funzionalità essenziale, con DLSS che allevia significativamente i cali di prestazioni. Spero in una traiettoria altrettanto brillante per Nvidia ACE, aprendo la strada alla sua adozione diffusa senza notevoli svantaggi di prestazioni.
Impressioni pratiche sugli strumenti AI NVIDIA Audio2Face, ComfyUI e ChatRTX
Mentre ACE era al centro dell’attenzione, sono stati presentati anche altri degni di nota strumenti di intelligenza artificiale, come Audio2Face all’interno di Nvidia Omniverse, insieme a ComfyUI e ChatRTX.
Lo strumento Audio2Face è incentrato sullo sviluppatore e utilizza l’intelligenza artificiale per generare autonomamente animazioni facciali che si allineano al dialogo. Questo strumento va oltre la sincronizzazione labiale simulando le espressioni attraverso i muscoli facciali per produrre animazioni altamente realistiche.
Sebbene la demo non illustrasse casi d’uso specifici, si rivela molto promettente per i giochi multilingue, consentendo espressioni facciali adattive adattabili a diverse lingue audio.
ComfyUI e ChatRTX di Nvidia offrono esperienze utente simili ad altri strumenti di intelligenza artificiale, ma mettono in risalto la loro capacità di funzionare interamente tramite GPU Nvidia locali, eliminando così problemi di latenza o relativi al server e offrendo una soluzione notevolmente più rapida.
Nel complesso, la prossima suite di strumenti AI di Nvidia sembra molto promettente, con il potenziale per migliorare notevolmente l’industria dei videogiochi. Personalmente, non vedo l’ora di vedere Nvidia ACE implementato nei prossimi titoli RPG, consentendomi di immergermi per ore in mondi di gioco riccamente interattivi.
Lascia un commento