Seit der Einführung von DLSS im Jahr 2018 hat Nvidia seine Präsenz im KI-Sektor schrittweise ausgebaut und sein Portfolio um Tools wie Reflex und Broadcast erweitert. Anfangs war DLSS mit Herausforderungen wie Artefakten konfrontiert. Mit späteren Updates und Weiterentwicklungen hat es sich jedoch zu einem wesentlichen Feature entwickelt, das ein Gleichgewicht zwischen Raytracing-Grafiktreue und den von Gamern gewünschten hohen Bildraten herstellt.
Mit Blick auf die Zukunft der KI in Videospielen scheint Nvidia neben DLSS und Reflex zahlreiche innovative Funktionen in der Entwicklung zu haben. Vor kurzem hatte ich die Gelegenheit, einige dieser aufregenden neuen Funktionen beim GeForce Nvidia RTX AI PC Showcase zu erkunden und zu testen.
Die Veranstaltung wurde von John Gillooly, Technical Product Marketing Manager für den südasiatischen Raum bei Nvidia, geleitet und präsentierte die Vision des Unternehmens nicht nur für Gaming, sondern für die breitere Unterhaltungslandschaft, ergänzt durch praktische Erfahrungen mit diesen Technologien.
NVIDIA ACE: Die Zukunft der NPC-Interaktion
Nvidia hat im Januar 2024 ACE (Avatar Cloud Engine) vorgestellt. Diese Suite nutzt generative KI, um interaktive digitale Charaktere oder NPCs zu erstellen. Im Wesentlichen ersetzt sie herkömmliche Dialogbäume durch flüssigere Gespräche, sodass Spieler den Charakteren im Spiel Fragen stellen können, die basierend auf ihrem Wissen antworten.
Während der Demonstration präsentierte Nvidia zwei Varianten von ACE: eine mit dem kommenden Spiel Mecha BREAK und die andere mit der Legends Tech-Demo von Perfect World.
Die erste Demo von Mecha BREAK basierte auf dem Tensor-Core der GPU, um die KI-Verarbeitung lokal abzuwickeln. Dies ermöglichte schnelle Interaktionen mit minimaler Latenz, allerdings mit eingeschränkten Gesprächsoptionen. Ich konnte den Charakter bitten, meinen ausgerüsteten Mech zu wechseln oder Statistiken zu erklären. Fragen, die nicht zum Kontext des Spiels gehörten, endeten jedoch oft mit der Antwort: „Tut mir leid, das habe ich nicht verstanden.“
Darüber hinaus kam es bei der Demo zu mehreren Abstürzen, was Bedenken hinsichtlich der Leistung aufkommen ließ, insbesondere da sie auf RTX 4080- und 4090-Systemen ausgeführt wurde.
Die zweite Demonstration zeigte NVIDIA ACE in der Legends Tech-Demo von Perfect World. Dabei wurden Cloud Computing und ChatGPT eingesetzt, um mit den Spielern zu interagieren und sicherzustellen, dass der Charakter seiner Überlieferung treu blieb und gleichzeitig Antworten auf Spieleranfragen lieferte.
In diesem mittelalterlichen Fantasy-Setting konnte der Charakter den Spielern beispielsweise bei der Waffenwahl oder -verwendung Anweisungen geben, obwohl er moderne Technologien wie Autos nicht wahrnahm. Die Reaktionen waren zwar etwas verzögert, aber im Vergleich zur vorherigen Demo deutlich natürlicher.
Nachdem ich die Demos erlebt habe, bin ich skeptisch optimistisch. Obwohl diese Technologie heute eine Neuheit darstellt, wirft ihre mögliche Auswirkung auf meine GPU- oder Internetleistung Fragen auf. Sie befindet sich noch in einem frühen Entwicklungsstadium, was an die anfänglichen Reaktionen auf Raytracing erinnert, das viele Spieler, mich eingeschlossen, lieber ignorierten, um in ausgewählten Titeln eine verbesserte FPS statt einer verbesserten Beleuchtung zu erzielen.
Doch in den letzten fünf Jahren hat sich Raytracing zu einem wichtigen Feature entwickelt, wobei DLSS Leistungseinbrüche deutlich lindert. Ich hoffe auf eine ähnlich positive Entwicklung für Nvidia ACE, die den Weg für eine breite Einführung ohne wesentliche Leistungseinbußen ebnet.
Praktische Eindrücke von den KI-Tools NVIDIA Audio2Face, ComfyUI und ChatRTX
Während ACE im Mittelpunkt stand, wurden auch andere bemerkenswerte KI-Tools vorgestellt, wie etwa Audio2Face in Nvidia Omniverse sowie ComfyUI und ChatRTX.
Das Tool Audio2Face ist auf Entwickler ausgerichtet und nutzt KI, um selbstständig Gesichtsanimationen zu generieren, die zum Dialog passen. Dieses Tool geht über die Lippensynchronisation hinaus, indem es Ausdrücke über die Gesichtsmuskeln simuliert, um hochrealistische Animationen zu erzeugen.
Obwohl in der Demo keine spezifischen Anwendungsfälle gezeigt wurden, ist sie sehr vielversprechend für mehrsprachige Spiele, da sie adaptive Gesichtsausdrücke ermöglicht, die auf verschiedene Audiosprachen zugeschnitten sind.
ComfyUI und ChatRTX von Nvidia bieten ein Benutzererlebnis, das mit anderen KI-Tools vergleichbar ist, zeichnen sich jedoch durch die Fähigkeit aus, vollständig mit lokalen Nvidia-GPUs zu arbeiten. Dadurch werden Latenz- oder Serverprobleme vermieden und eine deutlich schnellere Lösung geboten.
Insgesamt erscheint Nvidias kommende Suite von KI-Tools sehr vielversprechend und hat das Potenzial, die Gaming-Branche erheblich zu verbessern. Persönlich bin ich gespannt, Nvidia ACE in kommenden RPG-Titeln implementiert zu sehen, sodass ich stundenlang in hochgradig interaktive Spielwelten eintauchen kann.
Schreibe einen Kommentar