Desde o lançamento do DLSS em 2018, a Nvidia tem progressivamente avançado sua presença no setor de IA, expandindo seu portfólio com ferramentas como Reflex e Broadcast. Inicialmente, o DLSS enfrentou desafios como artefatos; no entanto, com atualizações e avanços subsequentes, ele evoluiu para um recurso essencial, atingindo um equilíbrio entre a fidelidade visual ray-traced e as altas taxas de quadros que os jogadores buscam.
Olhando para o futuro da IA em videogames, a Nvidia parece ter vários recursos inovadores em desenvolvimento além de apenas DLSS e Reflex. Recentemente, tive a oportunidade de explorar e testar alguns desses novos recursos interessantes no GeForce Nvidia RTX AI PC Showcase.
O evento, liderado por John Gillooly, gerente de marketing de produtos técnicos para a região Ásia-Pacífico Sul da Nvidia, apresentou a visão da empresa não apenas para jogos, mas para o cenário mais amplo do entretenimento, complementado por experiências práticas com essas tecnologias.
NVIDIA ACE: O futuro da interação com NPCs
A Nvidia revelou o ACE (Avatar Cloud Engine) em janeiro de 2024. Este conjunto aproveita a IA generativa para criar personagens digitais interativos ou NPCs. Essencialmente, ele substitui árvores de diálogo convencionais por conversas mais fluidas, permitindo que os jogadores façam perguntas aos personagens do jogo que respondem com base em sua história.
Durante a demonstração, a Nvidia apresentou duas variações do ACE: uma usando o próximo jogo Mecha BREAK e a outra utilizando a demo Legends Tech da Perfect World.
A primeira demonstração do Mecha BREAK dependia do núcleo tensor da GPU para lidar com o processamento de IA localmente, permitindo interações rápidas com latência mínima, embora com opções de conversação limitadas. Eu conseguia pedir ao personagem para mudar meu mecha equipado ou explicar estatísticas. No entanto, perguntas além do contexto do jogo frequentemente resultavam na resposta: “Desculpe, não consegui entender isso”.
Além disso, a demo sofreu diversas falhas, levantando preocupações sobre o desempenho, especialmente porque foi executada em sistemas RTX 4080 e 4090.
A segunda demonstração contou com NVIDIA ACE dentro da demo Legends Tech da Perfect World. Esta empregou computação em nuvem e ChatGPT para interagir com os jogadores, garantindo que o personagem permanecesse consistente com sua história, ao mesmo tempo em que oferecia respostas às perguntas dos jogadores.
Neste cenário de fantasia medieval, por exemplo, o personagem podia guiar os jogadores na escolha ou uso de armas, embora eles estivessem alheios à tecnologia moderna, como carros. As respostas eram ligeiramente atrasadas, mas muito mais naturais em comparação à demo anterior.
Depois de experimentar as demos, sinto-me ceticamente otimista. Embora essa tecnologia represente uma novidade hoje, seu impacto potencial no desempenho da minha GPU ou da internet levanta questões. Ainda está no início de seu desenvolvimento, lembrando as reações iniciais ao ray tracing, que muitos jogadores, incluindo eu, preferiram ignorar para FPS aprimorado em vez de iluminação aprimorada em títulos selecionados.
No entanto, nos últimos cinco anos, o ray tracing se tornou um recurso vital, com o DLSS aliviando significativamente as quedas de desempenho. Estou esperançoso por uma trajetória igualmente brilhante para o Nvidia ACE, abrindo caminho para sua ampla adoção sem desvantagens substanciais de desempenho.
Impressões práticas das ferramentas NVIDIA Audio2Face, ComfyUI e ChatRTX AI
Enquanto o ACE ocupava o centro das atenções, outras ferramentas de IA notáveis também foram apresentadas, como o Audio2Face dentro do Nvidia Omniverse, juntamente com o ComfyUI e o ChatRTX.
A ferramenta Audio2Face é focada no desenvolvedor, utilizando IA para gerar autonomamente animações faciais que se alinham com o diálogo. Esta ferramenta vai além da sincronização labial, simulando expressões em músculos faciais para produzir animações altamente realistas.
Embora a demonstração não ilustre casos de uso específicos, ela é bastante promissora para jogos multilíngues, permitindo expressões faciais adaptáveis, adaptadas a vários idiomas de áudio.
O ComfyUI e o ChatRTX da Nvidia proporcionam experiências de usuário semelhantes a outras ferramentas de IA, mas destacam sua capacidade de operar inteiramente usando GPUs Nvidia locais, eliminando assim problemas de latência ou relacionados ao servidor e oferecendo uma solução significativamente mais rápida.
No geral, o próximo conjunto de ferramentas de IA da Nvidia parece altamente promissor, com potencial para melhorar muito a indústria de jogos. Pessoalmente, estou ansioso para ver o Nvidia ACE implementado nos próximos títulos de RPG, permitindo que eu mergulhe por horas em mundos de jogos ricamente interativos.
Deixe um comentário