NVIDIA i Japonia współpracują nad rozwojem badań i rozwoju sztucznej inteligencji.

NVIDIA i Japonia współpracują nad rozwojem badań i rozwoju sztucznej inteligencji.

NVIDIA and Japan Collaborate to Drive AI Research and Development

Japonia ma zamiar znacząco rozwinąć swoje zdolności badawcze i rozwojowe w dziedzinie sztucznej inteligencji poprzez integrację tysięcy układów GPU NVIDIA H200 Tensor Core w infrastrukturę chmurową AI Bridging Cloud Infrastructure 3.0 (ABCI 3.0). Pod przewodnictwem Narodowego Instytutu Zaawansowanych Technologii Przemysłowych (AIST), ta współpraca ma na celu napędzenie badań i rozwoju generatywnej sztucznej inteligencji w Japonii.

ABCI 3.0 jest najnowszą wersją ogromnej infrastruktury obliczeniowej z otwartym dostępem AI w Japonii, zaprojektowanej do zwiększenia zdolności AI i promocji niezależności technologicznej. AIST, wraz ze swoją spółką zależną AIST Solutions oraz Hewlett Packard Enterprise (HPE) jako integrator systemu, są liderami tego projektu. Inicjatywa jest poparta przez Ministerstwo Gospodarki, Handlu i Przemysłu Japonii (METI) poprzez Fundusz Bezpieczeństwa Ekonomicznego, jako część szerszej inwestycji w zasoby obliczeniowe i obliczenia chmurowe AI o wartości 1 miliarda dolarów.

Udział NVIDII w projekcie ma ogromne znaczenie. Firma nie tylko deklaruje wsparcie dla badań w zakresie generatywnej AI, robotyki i obliczeń kwantowych, ale także zobowiązuje się do inwestowania w start-upy zajmujące się sztuczną inteligencją, dostarczając jednocześnie wsparcie produktowe, szkolenia i edukację.

Superkomputer ABCI 3.0, znajdujący się w Kashiwa koło Tokio, będzie przechowywał zintegrowane układy GPU NVIDIA H200 i systemy HPE Cray XD z siecią NVIDIA Quantum-2 InfiniBand. Ten układ dostarczy niezrównaną wydajność i efektywność, oferując 6 AI eflopow mocy obliczeniowej oraz 410 petaflopow podwójnej precyzji do ogólnych zadań obliczeniowych. Platforma Quantum-2 InfiniBand zapewni szybką i niską opóźnienie komunikację między węzłami, co jest niezbędne do zarządzania intensywnymi obciążeniami związanymi z AI i dużymi zbiorami danych.

Układ GPU NVIDIA H200 to przełomowy element, oferujący ponad 140 gigabajtów pamięci HBM3e o prędkości 4,8 terabajty na sekundę. Większa i szybsza pamięć znacząco przyspiesza generatywną AI i modele językowe, przyczyniając się do poprawy efektywności energetycznej i obniżenia całkowitych kosztów posiadania.

Poprzez dofinansowanie tego superkomputera AI Japonia ma na celu pozycjonowanie się jako lidera na globalnej mapie AI, redukując czas i koszty związane z rozwojem technologii AI nowej generacji. Współpraca między NVIDIĄ a Japonią jest dowodem na ich wspólną wizję napędzania badań i rozwoju AI oraz przekształcania ogromnych ilości danych w działalne informacje.

The source of the article is from the blog yanoticias.es