NVIDIA ACE: Rewriting the Future of Digital Avatars with Generative AI Models

NVIDIA ACE: Rewriting the Future of Digital Avatars with Generative AI Models

NVIDIA ACE: Rewriting the Future of Digital Avatars with Generative AI Models

Dubaj, Zjednoczone Emiraty Arabskie — NVIDIA wprowadziła produkcyjne mikrousługi dla silnika NVIDIA Avatar Cloud Engine (ACE), umożliwiające deweloperom gier, narzędzi i middleware integrowanie najnowocześniejszych generatywnych modeli sztucznej inteligencji (AI) ze swoimi cyfrowymi awatarami w grach i aplikacjach.

Nowe mikrousługi ACE pozwalają deweloperom tworzyć interaktywne awatary przy użyciu modeli AI, takich jak NVIDIA Audio2Face (A2F), które tworzą ekspresyjne animacje twarzy na podstawie źródeł dźwiękowych, oraz NVIDIA Riva Automatic Speech Recognition (ASR), do budowania aplikacji multilingwalnych do mowy i tłumaczeń za pomocą generatywnych modeli AI.

ACE zyskuje popularność wśród takich podmiotów jak Charisma.AI, Convai, Inworld, miHoYo, NetEase Games, Ourpalm, Tencent, Ubisoft i UneeQ.

„Technologie generatywne AI zmieniają niemal wszystko, co robimy, a to dotyczy także tworzenia i rozgrywki w grach” – powiedział Keita Iida, wiceprezes ds. relacji z deweloperami w NVIDIA. „NVIDIA ACE otwiera nowe możliwości dla twórców gier, wypełniając ich światy realistycznymi cyfrowymi postaciami, jednocześnie eliminując konieczność wcześniejszego skryptowania dialogów i dostarczając większą immersję w grze”.

Najwięksi deweloperzy gier i interaktywnych awatarów przyjmują ACE NVIDIA
Najwięksi deweloperzy gier i interaktywnych awatarów pioniersko wykorzystują technologie ACE i generatywne modele AI do transformacji interakcji między graczami a postaciami niezależnymi (NPC) w grach i aplikacjach.

„To przełomowy moment dla AI w grach” – powiedział Tencent Games. „NVIDIA ACE i Tencent Games pomogą zbudować fundament, który wprowadzi do gier cyfrowe awatary o indywidualnych, realistycznych osobowościach i interakcjach”.

NVIDIA ACE ożywia postacie w grach
NPCs były dotychczas projektowane z ustalonymi odpowiedziami i animacjami twarzy. Ograniczało to interakcje graczy, które często były transakcyjne, krótkotrwałe i w rezultacie pomijane przez większość osób.

„Postacie wirtualne napędzane generatywną AI w wirtualnym świecie odblokowują różne zastosowania i doświadczenia, które wcześniej były niemożliwe” – powiedział Purnendu Mukherjee, założyciel i dyrektor generalny w Convai. „Convai wykorzystuje Riva ASR i A2F do tworzenia realistycznych NPC z najwyższym czasem reakcji i wysoką jakością naturalnej animacji”.

Aby pokazać, jak ACE może przekształcić interakcje z NPC, NVIDIA współpracowała z Convai w celu rozszerzenia demonstracji NVIDIA Kairos, która zadebiutowała na targach Computex, o wiele nowych funkcji i włączenie mikrousług ACE.

W najnowszej wersji Kairos, Riva ASR i A2F są szeroko stosowane, poprawiając interaktywność NPC. Nowa struktura Convai umożliwia teraz npc rozmawianie ze sobą i zapewnia im świadomość obiektów, dzięki czemu mogą podnosić i dostarczać przedmioty w wybrane miejsca. Ponadto, npc zyskują zdolność prowadzenia graczy do celów i przemierzania świata gry.

Mikrousługi Audio2Face i Riva Automatic Speech Recognition są już dostępne. Deweloperzy interaktywnych awatarów mogą indywidualnie włączać modele do swojego procesu twórczego.

O NVIDIA
NVIDIA od momentu swojego powstania w 1993 roku jest prekursorem w dziedzinie przyspieszonego obliczania. Wynalezienie przez firmę GPU w 1999 roku zapoczątkowało rozwój rynku gier komputerowych, zrewolucjonizowało grafikę komputerową, rozpoczęło erę nowoczesnej sztucznej inteligencji (AI) i przyczynia się do cyfrowej transformacji w różnych branżach. NVIDIA jest teraz kompleksową firmą obliczeniową oferującą rozwiązania na skalę centrów danych, które przeobrażają przemysł. Więcej informacji można znaleźć na stronie https://nvidianews.nvidia.com/.

FAQ:
1. Jakie mikrousługi wprowadziła NVIDIA dla silnika ACE?
NVIDIA wprowadziła mikrousługi dla silnika NVIDIA Avatar Cloud Engine (ACE), które umożliwiają deweloperom gier, narzędzi i middleware integrowanie generatywnych modeli sztucznej inteligencji (AI) ze swoimi cyfrowymi awatarami w grach i aplikacjach.

2. Jakie modele AI można wykorzystać przy tworzeniu interaktywnych awatarów za pomocą ACE?
Deweloperzy mogą używać takich modeli AI jak NVIDIA Audio2Face (A2F), które tworzą animacje twarzy na podstawie źródeł dźwiękowych, oraz NVIDIA Riva Automatic Speech Recognition (ASR), do budowania aplikacji multilingwalnych do mowy i tłumaczeń.

3. Jakie podmioty korzystają z usług ACE?
Podmioty takie jak Charisma.AI, Convai, Inworld, miHoYo, NetEase Games, Ourpalm, Tencent, Ubisoft i UneeQ korzystają z usług ACE.

4. W jaki sposób NVIDIA ACE przyczynia się do transformacji interakcji w grach i aplikacjach?
NVIDIA ACE umożliwia twórcom gier tworzenie realistycznych cyfrowych postaci, eliminując konieczność skryptowania dialogów. Dzięki temu gracze mogą mieć większą immersję w grę.

5. Jakie korzyści przynoszą modele AI w interakcji z NPC w grach?
Modele AI umożliwiają projektowanie postaci NPC z indywidualnymi osobowościami, realistycznymi reakcjami i wysoką jakością animacji twarzy. Możliwe staje się tworzenie różnych doświadczeń w wirtualnym świecie.

6. Jakie mikrousługi NVIDIA są już dostępne?
Mikrousługi Audio2Face i Riva Automatic Speech Recognition są już dostępne dla deweloperów interaktywnych awatarów.

Definicje:
– ACE: Skrót od NVIDIA Avatar Cloud Engine (silnik chmury awatarów NVIDIA), który umożliwia deweloperom integrowanie generatywnych modeli AI ze swoimi cyfrowymi awatarami w grach i aplikacjach.
– AI: Skrót od sztuczna inteligencja (ang. artificial intelligence) – dziedzina informatyki zajmująca się tworzeniem inteligentnych maszyn.
– NPC: Skrót od non-player character (postać niezależna) – postać w grze sterowana przez komputer, która nie jest kontrolowana przez gracza.

Sugerowane powiązane linki:
Strona NVIDIA (https://nvidianews.nvidia.com/)

The source of the article is from the blog kewauneecomet.com