AIコンピューティングの革命:LiqidのUltraStackとMetaのVRプロジェクト

AIコンピューティングの革命:LiqidのUltraStackとMetaのVRプロジェクト

Revolutionizing AI Computing: Liqid’s UltraStack and Meta’s VR Project

Meta(以前のFacebook)は、最新のテクノロジーの導入に尽力することで知られており、仮想現実研究プロジェクトのGPU駆動のコンピュートパワーの必要性に対処するための解決策を見つけました。このプロジェクトは、IT業界の一般的なGPUサーバーの密度と供給の制約に直面していました。しかしながら、Metaは、構成可能な非集積インフラのパイオニアであるLiqidにこの課題を乗り越えるために協力しました。

Liqidは、最大20のNVIDIA L40S GPUを搭載した2Uデル PowerEdgeサーバーを特長とするUltraStackサーバーソリューションを導入しました。この革新的なソリューションは、高いGPU密度の需要を満たすだけでなく、性能も大幅に向上させます。UltraStackは、次世代のワークロードを加速する潜在能力を持ち、パフォーマンスに注目した35%の向上をもたらします。さらに、低いGPU容量を持つサーバーと比較して、35%の電力消費削減と驚異的な75%のソフトウェアライセンスコスト削減を提供します。

Metaのスタッフ研究エンジニアであるVasu Agrawal氏は、Liqid UltraStackとNVIDIA L40S GPU、デル PowerEdgeサーバーの影響を映像インタビューで明らかにしています。このインフラが彼らのVRプロジェクトを変革し、コンピュート機能を向上させて重要な進歩を促進している点を強調しています。

UltraStackの主な利点は、複数のGPUを標準サーバーにシームレスに接続できる点にあります。これにより、AIコンピューティングにおける費用と複雑性、時間、パフォーマンスの3つの重要な課題に効果的に対処しています。

まず第一に、UltraStackは、適切なGPU密度の不足に関連するコストと複雑性を排除します。多くのAI展開は、サーバーごとのGPU数が限られているため、増加する電力、冷却、スペースコスト、およびシステム管理の複雑さに直面していますが、UltraStackはこれらの問題を解決するためにサーバーごとに最大20のGPUを組み込んでいます。

第二に、高性能GPUの供給の限られていることから、AIインフラの実装は遅れることがあります。UltraStackは、即座に利用可能なNVIDIA L40S GPUを統合することで、迅速かつ効率的な展開を確実にしています。

最後に、UltraStackは、サーバーごとに最大20のGPUを統合することで、優れたパフォーマンスを提供しています。MLPerf 3.1 Inference LLM(Large Language Model)のテスト結果では、さまざまなドメインでの驚異的なクエリ数/秒を実現しています。たとえば、16倍のL40S GPUを使用した場合、UltraStackはMLPerf 3.1 Inference LLMに対して1秒あたり94件のクエリを~7,000Wで達成しました。さらに、Object Detection、Medical Imaging、Natural Language Processingなどの領域で、UltraStackは、それぞれ10,104クエリ/秒、62.6クエリ/秒、44,730クエリ/秒を達成しました。

Liqidは、独立して利用可能なサーバーオプションとクラスター対応のサーバーオプションの両方でUltraStackを提供しています。独立したサーバーは最大20のGPUを収容し、クラスター対応のサーバーは、16のL40S GPUに加えて、Liqid IO Accelerator NVMe SSD、NVIDIA ConnectX-7 NIC、NVIDIA BlueField-3 DPUを組み込んでおり、複雑なAI環境での接続性と効率を向上させています。

LiqidのUltraStackとMetaのAIテクノロジー導入へのコミットメントとの組み合わせは、AIコンピューティング分野において重要な飛躍を示しています。重要な課題に対処し、卓越したパフォーマンスを提供することで、UltraStackはAIの進化を加速し、効果的な仮想現実体験の道を切り拓いています。

トピックに関連する追加の事実は以下の通りです:

– LiqidのUltraStackサーバーソリューションは、コンポーザブルな非集積型インフラ(CDI)に基づいており、コンピュート、ストレージ、ネットワーキングリソースの動的な構成と再構成を可能にします。CDIにより、組織はリソースの割り当てを最適化し、柔軟性を向上させ、インフラ管理を効率化できます。

– Metaの仮想現実研究プロジェクトは、AIやコンピュータビジョンなどの先端技術を活用して、ユーザーに没入感のある体験を提供することを目指しています。UltraStackによって提供される増加したGPUコンピュートパワーは、現実的でインタラクティブな仮想環境の描画能力を高め、より没入感のあるVR体験を実現します。

– MetaとLiqidのパートナーシップは、AIコンピューティングと仮想現実の分野における技術企業同士の協力の重要性を示しています。協力することで、既存のインフラの制約を克服し、それぞれの分野でイノベーションを推進することができました。

このトピックに関連する最も重要な質問は以下の通りです:

1. UltraStackのGPU密度は従来のサーバー構成と比較してどのように異なりますか?
2. UltraStackが異なるAIワークロードで達成した具体的なパフォーマンス向上は何ですか?
3. UltraStackはAIコンピューティングにおけるコストと複雑性の課題にどのように対処していますか?
4. Metaの仮想現実研究プロジェクトにおける増強されたGPUコンピュートパワーの潜在的な応用例は何ですか?
5. Liqid IO Accelerator NVMe SSD、NVIDIA ConnectX-7 NIC、NVIDIA BlueField-3 DPUの統合がクラスター対応サーバーの効率にどのように貢献していますか?

トピックに関連する主な課題や論争は以下の通りです:

1. 可視性:UltraStackは従来のサーバー構成におけるGPU密度の制約に対処しますが、より大規模なAIワークロードに対応するためのインフラの拡張がまだ課題を提起する可能性があります。組織はインフラの展開を注意深く計画し、電力や冷却要件などの要因を考慮する必要があります。

2. コスト:UltraStackは電力消費やソフトウェアライセンスのコスト削減を提供しますが、高密度GPUサーバーへの事前投資は依然として著しいことがあります。組織はそのようなソリューションの長期的な費用対効果を評価し、それらがAIワークロードにどのような特定の利点を提供するかを考慮する必要があります。

LiqidのUltraStackとMetaのVRプロジェクトの利点:

1. コンピュートパワーの増加:UltraStackの高密度GPUサーバーを統合することで、Metaの仮想現実研究プロジェクトのコンピュート機能が大幅に向上します。この増加したパワーにより、より複雑でリアルな仮想環境の描画が可能となり、より没入感のあるVR体験が実現できます。

2. コストの削減:UltraStackは、電力消費とソフトウェアライセンスのコスト削減を通じてコスト削減を提供します。大規模なAI展開を行う組織にとって、多数のGPUが必要な場合に特に有益です。

デメリット:

1. 事前投資:UltraStackや類似の高密度GPUソリューションの展開には、著しい事前投資が必要です。組織は、このようなインフラを採用する前に、財務上の影響や投資効果を注意深く評価する必要があります。

2. 可視性の限界:UltraStackはGPUサーバー密度の制約に対処していますが、より大規模なAIワークロードを処理する際には、拡張性の課題が依然として存在するかもしれません。組織はAIインフラの将来の成長と拡張要件を慎重に考慮する必要があります。