Od czasu wprowadzenia DLSS w 2018 r. firma Nvidia stopniowo zwiększała swoją obecność w sektorze AI, rozszerzając swoje portfolio o narzędzia takie jak Reflex i Broadcast. Początkowo DLSS napotykał na wyzwania, takie jak artefakty; jednak wraz z kolejnymi aktualizacjami i udoskonaleniami rozwinął się w niezbędną funkcję, zapewniając równowagę między wiernością wizualną ray tracingu a wysoką liczbą klatek na sekundę, której szukają gracze.
Patrząc w przyszłość sztucznej inteligencji w grach wideo, Nvidia wydaje się mieć wiele innowacyjnych funkcji w fazie rozwoju wykraczających poza DLSS i Reflex. Niedawno miałem okazję zbadać i przetestować niektóre z tych ekscytujących nowych możliwości na GeForce Nvidia RTX AI PC Showcase.
Wydarzenie, któremu przewodził John Gillooly, kierownik ds. marketingu produktów technicznych w regionie Azji i Pacyfiku w firmie Nvidia, przedstawiło wizję firmy dotyczącą nie tylko gier, ale także szerszego spektrum rozrywki, uzupełnioną o możliwość praktycznego zapoznania się z tymi technologiami.
NVIDIA ACE: przyszłość interakcji NPC
Firma Nvidia ujawniła ACE (Avatar Cloud Engine) w styczniu 2024 r. Ten pakiet wykorzystuje generatywną sztuczną inteligencję do tworzenia interaktywnych postaci cyfrowych lub NPC. Zasadniczo zastępuje konwencjonalne drzewa dialogowe bardziej płynnymi konwersacjami, umożliwiając graczom zadawanie pytań postaciom w grze, które odpowiadają na podstawie ich wiedzy.
Podczas demonstracji firma Nvidia zaprezentowała dwie wersje gry ACE: jedną wykorzystującą nadchodzącą grę Mecha BREAK, a drugą demo Legends Tech od Perfect World.
Pierwsza wersja demonstracyjna Mecha BREAK opierała się na rdzeniu tensorowym GPU, aby lokalnie obsługiwać przetwarzanie AI, umożliwiając szybkie interakcje z minimalnym opóźnieniem, choć z ograniczonymi opcjami konwersacji. Mogłem poprosić postać o zmianę mojego wyposażonego mecha lub wyjaśnienie statystyk. Jednak pytania wykraczające poza kontekst gry często kończyły się odpowiedzią: „Przepraszam, nie mogłem tego zrozumieć”.
Dodatkowo w wersji demo wielokrotnie dochodziło do awarii, co budziło obawy o wydajność, zwłaszcza że była uruchamiana na systemach z kartami RTX 4080 i 4090.
Druga demonstracja zawierała NVIDIA ACE w demonstracji Legends Tech autorstwa Perfect World. Ta wykorzystywała przetwarzanie w chmurze i ChatGPT do angażowania graczy, zapewniając, że postać pozostaje spójna ze swoją historią, a jednocześnie oferuje odpowiedzi na pytania graczy.
Na przykład w tym średniowiecznym fantasy, postać mogła kierować graczami w wyborze broni lub jej użyciu, chociaż nie byli świadomi nowoczesnych technologii, takich jak samochody. Odpowiedzi były lekko opóźnione, ale znacznie bardziej naturalne w porównaniu z poprzednią wersją demonstracyjną.
Po zapoznaniu się z demami czuję sceptycznie optymistyczny nastawienie. Chociaż ta technologia jest dziś nowością, jej potencjalny wpływ na wydajność mojego GPU lub Internetu budzi wątpliwości. Jest jeszcze na wczesnym etapie rozwoju, co przypomina początkowe reakcje na ray tracing, który wielu graczy, w tym ja, wolało pominąć na rzecz zwiększonej liczby klatek na sekundę (FPS) zamiast ulepszonego oświetlenia w wybranych tytułach.
Jednak w ciągu ostatnich pięciu lat ray tracing stał się istotną funkcją, a DLSS znacznie łagodzi spadki wydajności. Mam nadzieję na podobnie jasną trajektorię dla Nvidia ACE, torując drogę do jego powszechnego przyjęcia bez istotnych niedogodności związanych z wydajnością.
Praktyczne wrażenia z narzędzi AI NVIDIA Audio2Face, ComfyUI i ChatRTX
Podczas gdy ACE zajmowało centralne miejsce, zaprezentowano również inne godne uwagi narzędzia AI, takie jak Audio2Face w ramach Nvidia Omniverse, a także ComfyUI i ChatRTX.
Narzędzie Audio2Face jest zorientowane na programistów, wykorzystując AI do autonomicznego generowania animacji twarzy, które są zgodne z dialogiem. To narzędzie wykracza poza synchronizację ust, symulując ekspresję mięśni twarzy, aby tworzyć wysoce realistyczne animacje.
Mimo że demo nie zilustrowało konkretnych przypadków użycia, daje ono spore możliwości w przypadku gier wielojęzycznych, umożliwiając adaptacyjną mimikę twarzy dostosowaną do różnych języków audio.
Narzędzia ComfyUI i ChatRTX firmy Nvidia oferują użytkownikom podobne doświadczenia jak inne narzędzia z zakresu sztucznej inteligencji, ale jednocześnie pozwalają na działanie wyłącznie przy użyciu lokalnych procesorów graficznych Nvidia, eliminując w ten sposób opóźnienia lub problemy związane z serwerem i oferując znacznie szybsze rozwiązanie.
Ogólnie rzecz biorąc, nadchodzący zestaw narzędzi AI firmy Nvidia wydaje się bardzo obiecujący, z potencjałem znacznego usprawnienia branży gier. Osobiście nie mogę się doczekać, aby zobaczyć implementację Nvidia ACE w nadchodzących tytułach RPG, co pozwoli mi zanurzyć się na wiele godzin w bogatych interaktywnych światach gier.
Dodaj komentarz