Japonska namerava znatno napredovati v raziskavah in razvoju umetne inteligence s pomočjo integracije tisočih grafičnih procesorskih enot NVIDIA H200 Tensor Core GPU v infrastrukturo oblaka za umetno inteligenco z imenom AI Bridging Cloud Infrastructure 3.0 (ABCI 3.0). Vodilni v tem sodelovanju je Nacionalni inštitut za napredno industrijsko znanost in tehnologijo (AIST), ki si prizadeva spodbuditi raziskave in razvoj generativne umetne inteligence v Japonski.
ABCI 3.0 je najnovejša različica široke infrastrukture odprte računalništva za umetno inteligenco v Japonski, namenjena izboljšanju zmogljivosti umetne inteligence in spodbujanju tehnološke neodvisnosti. AIST skupaj s poslovnim podjetjem AIST Solutions in podjetjem Hewlett Packard Enterprise (HPE) kot sistem integrator vodita ta projekt. Iniciativo podpira japonsko Ministrstvo za gospodarstvo, trgovino in industrijo (METI) z Ekonomskim varnostnim skladom, kot del širše naložbe v višini 1 milijarde USD v računalniške vire in oblak za računalništvo z umetno inteligenco.
Vključenost podjetja NVIDIA v projekt je izjemnega pomena. Podjetje ne le obljublja podporo pri raziskavah generativne umetne inteligence, robotike in kvantnega računalništva, temveč se zavezuje tudi k investiranju v podjetja na področju umetne inteligence ter zagotavljanju obsežne produktnih podpore, usposabljanja in izobraževanja.
Super računalnik ABCI 3.0, lociran v Kashiwi v bližini Tokia, bo gostil integrirane grafične procesorske enote NVIDIA H200 GPU in HPE Cray XD sisteme z NVIDIA Quantum-2 InfiniBand omrežjem. Ta ureditev bo ponujala neprekosljivo zmogljivost in učinkovitost, z 6 AI ekzaflopi računske zmogljivosti in 410 petaflopov dvojne natančnosti za splošno računalniško zmogljivost. Platforma Quantum-2 InfiniBand bo zagotavljala visoko hitrost in nizko zakasnitev komunikacije med vozlišči, kar je bistvenega pomena za upravljanje intenzivnih obremenitev z umetno inteligenco in velikih podatkovnih setov.
Grafična procesorska enota NVIDIA H200 GPU je inovativna komponenta, ki vsebuje več kot 140 gigabajtov pomnilnika HBM3e pri 4,8 terabajta na sekundo. Večji in hitrejši pomnilnik znatno pospešuje generativno umetno inteligenco in velike jezikovne modele, kar prispeva k izboljšani energetski učinkovitosti in nižjim stroškom lastništva.
Z subvencioniranjem razvoja tega super računalnika za umetno inteligenco si Japonska prizadeva, da bi se pozicionirala kot vodilna sila na globalni pokrajini umetne inteligence, zmanjšala čas in stroške povezane z razvojem tehnologij umetne inteligence naslednje generacije. Sodelovanje med podjetjem NVIDIA in Japonsko je pričevanje o njuni skupni viziji spodbujanja raziskav in razvoja umetne inteligence, ter preoblikovanju obsežnih količin podatkov v uporabne informacije.