Le Japon s’apprête à faire progresser de manière significative ses capacités de recherche et développement en intelligence artificielle en intégrant des milliers de GPU Tensor Core NVIDIA H200 dans l’Infrastructure Cloud d’Intégration de l’IA 3.0 (ABCI 3.0). Initiée par l’Institut national des sciences et technologies industrielles avancées (AIST), cette collaboration vise à faire avancer la recherche et le développement en intelligence artificielle générative au Japon.
ABCI 3.0 est la dernière itération de l’Infrastructure de Calcul Open AI à grande échelle du Japon, conçue pour améliorer les capacités en intelligence artificielle et promouvoir l’indépendance technologique. AIST, avec sa filiale commerciale AIST Solutions, et Hewlett Packard Enterprise (HPE) en tant qu’intégrateur système, dirigent ce projet. L’initiative est soutenue par le Ministère de l’Économie, du Commerce et de l’Industrie du Japon (METI) via le Fonds de Sécurité Économique, dans le cadre d’un investissement de 1 milliard de dollars dans des ressources informatiques et le cloud en intelligence artificielle.
L’implication de NVIDIA dans le projet est d’une grande importance. La société s’engage non seulement à soutenir la recherche en intelligence artificielle générative, en robotique et en informatique quantique, mais s’engage également à investir dans des start-ups en intelligence artificielle tout en offrant un soutien produit complet, de la formation et de l’éducation.
Le supercalculateur ABCI 3.0, situé à Kashiwa près de Tokyo, accueillera les GPU NVIDIA H200 intégrés et les systèmes HPE Cray XD avec un réseau InfiniBand NVIDIA Quantum-2. Cette configuration offrira des performances et une efficacité inégalées, en proposant une capacité de calcul de 6 AI exaflops et 410 petaflops en double précision pour les calculs généraux. La plateforme InfiniBand Quantum-2 fournira une communication à haute vitesse et à faible latence entre les nœuds, essentielle pour gérer des charges de travail en intelligence artificielle intensives et de gros ensembles de données.
Le GPU NVIDIA H200 est un composant révolutionnaire, offrant plus de 140 gigaoctets de mémoire HBM3e à 4,8 téraoctets par seconde. La mémoire plus grande et plus rapide accélère considérablement l’intelligence artificielle générative et les grands modèles de langage, contribuant à une efficacité énergétique et un coût total de possession réduits.
En subventionnant le développement de ce supercalculateur en intelligence artificielle, le Japon vise à se positionner en tant que leader dans le paysage mondial de l’intelligence artificielle, réduisant ainsi le temps et les coûts liés au développement de technologies en intelligence artificielle de nouvelle génération. La collaboration entre NVIDIA et le Japon témoigne de leur vision commune de faire progresser la recherche et le développement en intelligence artificielle et de transformer de vastes quantités de données en renseignements exploitables.
Fait complémentaire :
– NVIDIA est une entreprise technologique de premier plan spécialisée dans les GPU (unités de traitement graphique) et les technologies d’intelligence artificielle.
– Le Japon investit activement dans la recherche et le développement en intelligence artificielle pour rester compétitif à l’échelle mondiale.
– L’Infrastructure Cloud d’Intégration de l’IA (ABCI) est un projet national visant à faire progresser la recherche et le développement en intelligence artificielle au Japon.
– L’intégration des GPU Tensor Core NVIDIA H200 dans l’ABCI 3.0 améliorera considérablement ses capacités de calcul.
Questions clés :
1. Quel est l’objectif de l’intégration des GPU NVIDIA dans l’ABCI 3.0 ?
Réponse : L’intégration vise à faire progresser les capacités de recherche et développement en intelligence artificielle générative au Japon.
2. Quelle est l’importance de l’implication de NVIDIA dans le projet ?
Réponse : L’implication de NVIDIA apporte un soutien produit complet, une formation et une éducation, ainsi qu’un investissement dans des start-ups en intelligence artificielle.
3. Comment les GPU et systèmes intégrés amélioreront-ils l’ABCI 3.0 ?
Réponse : La configuration offrira des performances et une efficacité inégalées, en proposant une grande capacité de calcul et une communication à faible latence essentielle pour les charges de travail en intelligence artificielle intensives.
Défis ou controverses clés :
1. Coût : La collaboration nécessite un investissement significatif du Ministère de l’Économie, du Commerce et de l’Industrie du Japon, suscitant des questions sur la rentabilité du projet.
2. Dépendance technologique : Bien que la collaboration vise à renforcer l’indépendance technologique du Japon, le recours aux GPU et systèmes de NVIDIA soulève des préoccupations quant à la dépendance envers des fournisseurs de technologie externes.
Avantages :
1. Capacités de calcul avancées : L’intégration des GPU et systèmes de NVIDIA améliorera considérablement les capacités de recherche et développement en intelligence artificielle au Japon.
2. Efficacité énergétique : Les GPU NVIDIA H200 contribuent à une meilleure efficacité énergétique, réduisant le coût total de possession.
Inconvénients :
1. Coût : Le projet nécessite un investissement substantiel, suscitant des questions sur le rapport coût-bénéfice.
2. Dépendance technologique : Relying on NVIDIA’s technology may limit Japan’s autonomy in developing AI technologies.
Liens connexes :
– Site officiel de NVIDIA
– Site officiel de l’ABCI
https://youtube.com/watch?v=twCpuVyRXTg