NVIDIA und Japan arbeiten zusammen, um die KI-Forschung und -Entwicklung voranzutreiben.

NVIDIA und Japan arbeiten zusammen, um die KI-Forschung und -Entwicklung voranzutreiben.

NVIDIA and Japan Collaborate to Drive AI Research and Development

Japan wird seine KI-Forschungs- und -entwicklungskapazitäten erheblich ausbauen, indem Tausende von NVIDIA H200 Tensor Core GPUs in die AI Bridging Cloud Infrastructure 3.0 (ABCI 3.0) integriert werden. Dies wird vom National Institute of Advanced Industrial Science and Technology (AIST) geleitet, um die generative KI-Forschung und -entwicklung Japans voranzutreiben.

ABCI 3.0 ist die neueste Iteration der groß angelegten Open AI Computing Infrastructure Japans, die darauf abzielt, die KI-Fähigkeiten zu verbessern und technologische Unabhängigkeit zu fördern. AIST, sein Geschäftszweig AIST Solutions und Hewlett Packard Enterprise (HPE) als Systemintegrator leiten dieses Projekt. Die Initiative wird vom japanischen Ministerium für Wirtschaft, Handel und Industrie (METI) über den Economic Security Fund unterstützt, als Teil einer umfassenderen Investition von 1 Milliarde US-Dollar in Rechenressourcen und Cloud-KI-Berechnung.

Die Beteiligung von NVIDIA an dem Projekt ist von großer Bedeutung. Das Unternehmen verspricht nicht nur Unterstützung bei der Forschung in generativer KI, Robotik und Quantencomputing, sondern verpflichtet sich auch, in KI-Startups zu investieren und umfassende Produktunterstützung, Schulungen und Bildung zu bieten.

Der Supercomputer ABCI 3.0, der sich in Kashiwa in der Nähe von Tokio befindet, wird die integrierten NVIDIA H200 GPUs und HPE Cray XD-Systeme mit NVIDIA Quantum-2 InfiniBand-Netzwerken beherbergen. Diese Konfiguration bietet eine unübertroffene Leistung und Effizienz, wobei 6 KI-Exaflops an Rechenkapazität und 410 Petaflops für die allgemeine Rechenkapazität mit doppelter Genauigkeit geboten werden. Das Quantum-2 InfiniBand-System ermöglicht eine schnelle und geringe Latenzkommunikation zwischen den Knoten, die für die Verwaltung intensiver KI-Arbeitslasten und großer Datensätze unerlässlich ist.

Die NVIDIA H200 GPU ist ein bahnbrechendes Element mit über 140 Gigabyte HBM3e-Speicher bei 4,8 Terabyte pro Sekunde. Der größere und schnellere Speicher beschleunigt generative KI und große Sprachmodelle erheblich, was zu verbesserter Energieeffizienz und niedrigeren Gesamtbetriebskosten beiträgt.

Durch die Förderung dieses KI-Supercomputers möchte Japan seine Position als Vorreiter in der globalen KI-Landschaft festigen, um die Zeit- und Kostenersparnisse bei der Entwicklung von KI-Technologien der nächsten Generation zu reduzieren. Die Zusammenarbeit zwischen NVIDIA und Japan ist ein Zeugnis für ihre gemeinsame Vision, die KI-Forschung und -entwicklung voranzutreiben und riesige Datenmengen in handlungsfähige Informationen zu verwandeln.

The source of the article is from the blog yanoticias.es