AWS 揭示了與 NVIDIA 合作的革命性擴展,承諾顯著提升 AI 推論過程。在年度 AWS re:Invent 大會上宣布,AWS 將 NVIDIA NIM 微服務擴展到其主要 AI 產品中,旨在提供更快、更高效的 AI 支持。
NVIDIA NIM 微服務 現在可以通過包括 AWS Marketplace、Amazon Bedrock Marketplace 和 Amazon SageMaker JumpStart 在內的平台訪問,簡化了針對各種模型的 NVIDIA 優化推論解決方案的部署。這些微服務是 NVIDIA AI Enterprise 軟體的一部分,旨在雲端環境和數據中心中安全且穩健地部署。
NIM 容器使用先進的推論引擎如 NVIDIA Triton Inference Server 和 PyTorch 開發,支持廣泛的 AI 模型,無論是開源的、NVIDIA 基金會的還是自定義創建的。這些微服務與 AWS 服務如 Amazon EC2、Amazon EKS 和 Amazon SageMaker 無縫集成,使開發人員能夠高效管理 AI 應用程序。
開發人員可以預覽超過 100 種 NIM 微服務的廣泛選擇,展示來自 Meta 和 NVIDIA 等知名來源的模型,這些模型在 NVIDIA API 目錄中可用。一些高需求的微服務包括 NVIDIA Nemotron-4 和 Llama 模型,提供合成數據生成和多語言對話的先進能力。
整合 NIM 使得像 SoftServe 這樣的公司能夠加速各個行業的 AI 驅動解決方案的開發。利用 NIM 的能力提升性能,同時確保數據安全。渴望探索這些資源的開發人員可以通過 AWS Marketplace 訪問大量模型,並利用 NVIDIA 的尖端技術推動創新。
解鎖 AI 潛能:AWS 與 NVIDIA 的合作擴展
AWS 通過增強與 NVIDIA 的合作關係邁出了重要一步,承諾在 AI 推論能力上實現顯著改善。這一合作在 AWS re:Invent 大會上成為亮點,NVIDIA NIM 微服務的擴展被介紹為提升各種 AWS 平台上 AI 支持的關鍵創新。
創新亮點:NVIDIA NIM 微服務
NVIDIA NIM 微服務已無縫集成到熱門的 AWS 平台中,包括 AWS Marketplace、Amazon Bedrock Marketplace 和 Amazon SageMaker JumpStart。這一整合旨在簡化 NVIDIA 優化推論解決方案的部署過程,以滿足需要穩健 AI 模型的開發人員。
這些微服務是 NVIDIA AI Enterprise 套件的一部分,該套件在雲端和數據中心環境中提供安全和高效的部署。支持從開源和 NVIDIA 基金會到自定義解決方案的各種 AI 模型,這些微服務旨在滿足行業的多樣需求。
強化 AI 開發人員的能力
NVIDIA NIM 微服務利用 NVIDIA Triton Inference Server 和 PyTorch 等先進推論引擎提供卓越性能。它們與 AWS 服務如 Amazon EC2、Amazon EKS 和 Amazon SageMaker 無縫集成,使開發人員能夠高效管理和擴展其 AI 應用程序。
這一產品的一個獨特特點是通過 NVIDIA API 目錄提供的超過 100 種 NIM 微服務的豐富目錄。這包括高需求模型,如 NVIDIA Nemotron-4 和 Llama,這些模型促進了合成數據生成和多語言對話等先進任務。
實際使用案例和行業採用
NIM 微服務的整合已經對像 SoftServe 這樣的企業產生了變革性影響,使其能夠在各個行業快速開發 AI 驅動的解決方案。這一合作不僅提升了性能,還確保了嚴格的數據安全。
對於渴望利用這些尖端技術的開發人員,NVIDIA 的豐富模型庫可以通過 AWS Marketplace 隨時訪問。這為他們提供了充足的機會來推進其 AI 創新,利用 NVIDIA 的尖端技術。
在 AI 領域獲得競爭優勢,與 AWS 和 NVIDIA 一同前行
AWS 與 NVIDIA 的合作正在為 AI 領域設定新的標準,為開發人員提供工具和資源,以推動 AI 技術的邊界。隨著這些公司持續創新,它們為各行各業的新發現和應用鋪平了道路。
有關 AWS 服務的更多信息,請訪問 AWS 網站。
無論您是一家希望加速 AI 部署的企業,還是一位努力創造 AI 領域下一個重大突破的開發人員,AWS 和 NVIDIA 之間的這一合作都將為您提供成功所需的工具。