クラウドコンピューティング業界では、エネルギーを多く消費するGPUやその他の人工知能インフラを運用するクラウドオペレーターが、ますますNvidiaの提供に代わってAMDのアクセラレーターを採用する傾向がある。
最新のAMDアクセラレーターは、その利点により大きな注目を集めている。Nvidiaの競合製品と比べて購入が容易であり、TensorWaveは交渉力を活かしてこれらのチップを低価格でレンタルする予定だ。
2024年末までに、TensorWaveは2つの施設に2万個のMI300Xアクセラレーターを導入することを目指している。さらに、来年には性能向上のために液冷システムを導入する予定だ。
AMDの集積回路は高く評価されており、高い性能を誇るNvidia H100よりも速い。MI300Xは仕様でH100を上回り、より大きなメモリ容量やデータスループットを誇っている。それはAMDのAdvancing AIイベントで2024年12月に発表され、Nvidia H100より32%高速だと報告された。
ライバルであるH100と比較すると、AMDチップは192 GBのHBM3メモリ容量を持ち、データスループットが5.3 TB/sである。一方、H100は80 GBのメモリ容量と3.35 TB/sのスループットを持っている。
AMDアクセラレーターは人気を集めているものの、一部のユーザーはNvidiaの製品と性能を比較して疑問を投げかけている。TensorWaveは、RoCE(RDMA over Converged Ethernet)技術を用いてMI300Xノードを展開し、デプロイメントプロセスを迅速化する予定だ。
TensorWaveの長期的な計画には、より高度なリソース管理ソリューションを導入し、GigaIOのPCIe 5.0ベースのFabreXテクノロジーを使用して、最大5,750台のGPUとペタバイト単位の高スループットメモリを接続することが含まれている。このプロジェクトは、他のデータセンター企業も使用しているセキュリティの強いGPUアクセラレータークレジットによって資金提供される予定だ。
同様の取り組みは、Lambdaが5億ドルのクレジットを確保し、CoreWeaveがインフラ拡充のために23億ドルを獲得している。TensorWaveは、今年中に同様のニュースを発表する予定だ。
AMDアクセラレーターや人工知能への応用に関する詳細情報については、AMDのウェブサイトをご覧ください。
よくある質問
– AMDアクセラレーターとは何ですか?
AMDアクセラレーターは、グラフィックス処理や人工知能のタスクの性能を向上させるために設計された高度な処理ユニットです。
– AMDアクセラレーターはNvidiaのアクセラレーターとどう違いますか?
AMDアクセラレーターは、購入可能であり、大容量のメモリやデータスループットなど、Nvidiaの製品と比べて優れた仕様を備えています。
– TensorWaveはどのような技術を実装してAMDアクセラレーターのパフォーマンスを最適化する予定ですか?
TensorWaveは、RoCE(RDMA over Converged Ethernet)技術を利用して、デプロイメントプロセスを加速し、AMDアクセラレーターの効率を評価する予定です。
The source of the article is from the blog reporterosdelsur.com.mx