NVIDIA’s ACE Advances in Gaming Industry Despite Criticisms

NVIDIA’s ACE Advances in Gaming Industry Despite Criticisms

NVIDIA’s ACE Advances in Gaming Industry Despite Criticisms

The stock price of tech giant NVIDIA reached an all-time high on Monday as the company announced significant advancements in its Avatar Cloud Engine (ACE), drawing attention from game publishers like Ubisoft. NVIDIA revealed during CES that game developers and publishers can now apply for early access to two ACE Production Microservices offerings, namely Audio2Face and Riva.

Audio2Face utilizes AI technology to enhance the synchronization of game characters’ facial expressions with speech tracks. On the other hand, Riva employs AI to recognize player speech inputs and facilitates real-time conversations with in-game characters. Apart from Ubisoft, renowned game developers and studios such as MiHoYo, Tencent (the parent company of Riot Games), NetEase, and Ourpalm have committed to utilizing this groundbreaking technology introduced by NVIDIA. Additionally, AI-forward companies like Convai, Charisma.AI, and UneeQ are also set to adopt ACE in their operations.

NVIDIA initially announced ACE in March 2023, impressing the gaming community with a demonstration featuring a generative AI-powered non-playable character engaging in a real-time conversation with a human player at a cyberpunk ramen bar. This innovation revolutionizes the way game narratives are designed and executed. Traditionally, NPC dialogues were pre-written with limited response options for players. However, with the introduction of generative AI tools like NVIDIA’s ACE, players can now utilize their microphones to engage in freely spoken conversations with NPCs, with the NPCs providing responses generated in real-time.

Furthermore, NVIDIA’s updated ramen bar demo showcases two generative AI-powered NPCs conversing with each other, with the player able to join as a third voice. The conversations between NPCs constantly evolve, ensuring that each interaction is unique.

While the use of generative AI tools in game development is on the rise, concerns are emerging regarding the extent to which these tools will enhance the gaming experience. A quick review of demo videos reveals that NVIDIA’s Audio2Face still has room for improvement, as character lip movements do not precisely synchronize with the spoken words. As a result, characters may sometimes appear to be speaking a different language rather than conveying a natural dialogue.

The facial expressions in the ramen bar demo still lack complexity, despite NPCs being capable of blinking and eyebrow movements. Developers have the ability to adjust NPC „emotions” on a sliding scale, allowing them to determine the intensity of character reactions.

Despite criticisms, NVIDIA remains committed to advancing its AI offerings for game development. However, the industry has seen significant backlash from game writers and voice actors, who express concerns about potential job losses resulting from the rise of AI-generated art. Xbox’s recent announcement with Inworld AI further fueled these concerns, leading game developers to criticize the AI gamedev tools as „disrespectful and dangerous” to their professions.

The utilization of AI in the gaming industry is not new, as it has previously been employed for purposes such as training in „practice range” and the implementation of „bot modes” in shooter games. Nevertheless, the emergence of generative AI has opened up a realm of possibilities, and NVIDIA is not the only company exploring this frontier. For instance, a Grand Theft Auto V mod allowed AI-powered NPCs to insult players, until the mod’s creator faced a copyright strike from the game’s developer.

As NVIDIA continues to advance ACE and revolutionize the gaming industry, it remains to be seen how this technology will shape the future of gaming. Though criticisms persist, the potential for enhancing player experiences and creating immersive interactions with NPCs is undeniable. The development of AI-generated art will undoubtedly bring about both challenges and opportunities for the gaming community.

Często zadawane pytania (FAQ):

1. Jakie są dwie oferty mikroserwisów dostępne dla deweloperów i wydawców gier w ramach Avatar Cloud Engine (ACE)?
Odpowiedź: NVIDIA udostępniła Audio2Face i Riva jako dwie oferty mikroserwisów ACE, które mogą być wykorzystane do polepszenia synchronizacji wyrazów twarzy postaci i interakcji głosowych z NPC w grach.

2. Które firmy z branży gier zobowiązały się do wykorzystania technologii ACE?
Odpowiedź: Renomowane firmy i studia gier, takie jak Ubisoft, MiHoYo, Tencent, NetEase i Ourpalm, zadeklarowały wykorzystanie tej nowatorskiej technologii wprowadzonej przez NVIDIA. Ponadto, firmy związane z AI, takie jak Convai, Charisma.AI i UneeQ, również zapowiedziały wdrożenie ACE w swoich operacjach.

3. Jak NVIDIA wprowadziła ACE na rynek i jakie to ma konsekwencje dla branży gier?
Odpowiedź: NVIDIA ogłosiła ACE w marcu 2023 roku, prezentując demonstrację, w której napędzana przez generatywną SI postać niezależna (NPC) prowadziła rozmowę z graczem w czasie rzeczywistym w cyberpunkowym barze ramen. Ta innowacja rewolucjonizuje sposób projektowania i realizacji narracji gier. Dzięki narzędziom generatywnych SI, takim jak ACE, gracze mogą teraz używać mikrofonów do prowadzenia swobodnych rozmów z NPC, które generują odpowiedzi na bieżąco.

4. Jakie są niektóre obawy związane z wykorzystaniem narzędzi generatywnych SI w grach?
Odpowiedź: Istnieje obawa co do tego, w jakim stopniu narzędzia generatywne SI poprawią doświadczenie w grach. Przegląd demonstracji wideo wskazuje, że Audio2Face NVIDIA nadal wymaga pewnych udoskonaleń, ponieważ ruchy warg postaci nie są precyzyjnie zsynchronizowane z wypowiadanymi słowami. Istnieje również krytyka braku złożoności wyrazów twarzy. Deweloperzy mają jednak możliwość dostosowania „emocji” NPC, co pozwala na ustalenie intensywności reakcji postaci.

5. Jakie są obawy branży gier związane z rozwojem narzędzi generatywnych SI?
Odpowiedź: Pisarze gier i aktorzy głosowi wyrażają obawy dotyczące utraty miejsc pracy wynikającej z rozwoju sztuki generowanej przez SI. Ogłoszenie Xboxa o współpracy z Inworld AI spotęgowało te obawy i doprowadziło do krytyki narzędzi generatywnych jako „nieodpowiednich i niebezpiecznych” dla ich zawodów.

6. Jak wykorzystanie SI w branży gier ewoluowało?
Odpowiedź: Wykorzystanie SI w branży gier nie jest nowe i wcześniej była ona stosowana do celów takich jak trening w „zakresie treningowym” i wprowadzenie „trybu botów” w grach strzeleckich. Jednak nadejście narzędzi generatywnych SI otworzyło nowe możliwości. Inne firmy, oprócz NVIDIA, również badają ten obszar, jak na przykład mod w grze Grand Theft Auto V, który pozwalał na obrazę graczy przez NPC napędzanych SI.

The source of the article is from the blog lisboatv.pt