企業がビジネス運用に人工知能(AI)の可能性を取り入れるにつれて、AIワークロードの風景が大きく変化しています。従来、AIワークロードはデータセンターで処理され、モデルのトレーニングには専用かつ高価なハードウェアが必要でした。しかし、AIの分野が進化するにつれて、推論ベースのワークロードや既存モデルの最適化への動きが拡大しています。この変化により、主要なクラウドサービスプロバイダーによって提供されるAI as a serviceの新たな機会が開かれています。
データセンターでは、従来のサーバーをAIワークロードに活用する新たな傾向が台頭しています。よりコスト効率の良いソリューションに向かうこの動きは、データセンター業界の主要事業者に著しい利点をもたらしています。新しいより効率的なモデリング手法が開発されている中、従来のサーバーはこれらのワークロードを有利なコスト対性能比率とより大きな計算リソースを活用して処理できます。これにより、トレーニング目的でのみ必要とされる高価なハードウェアに多額の資本投資をする必要がなくなります。
一方、エッジコンピューティングは近い将来にAIワークロードの主要な宛先となる予定です。エッジは、小規模なセンサーアレイから自律車両や医療診断まで、幅広いシステムと処理能力を包括しています。エッジベースのシステムへの移行は、レイテンシーの削減、セキュリティの向上、効率性の増加など、多数の利点をもたらします。
エッジコンピューティングの繁栄するエコシステムを支援するために、オープンソースプラットフォームと開発環境が中心的な役割を果たすと期待されています。NvidiaのCUDAなどのプロプライエタリソリューションとは異なり、Armやx86などのオープンで互換性のあるエコシステムはさまざまなコンピューティングニーズに対して互換性を提供します。この柔軟性により、小規模デバイスから大規模なコンピューティング環境までのAIワークロードの簡単な拡張と移植が可能となり、シームレスな統合が促進されます。
AIワークロードの風景は、伝統的なデータセンターからエッジコンピューティング環境へと移行しつつあります。データセンターは引き続き重要な役割を果たしますが、推論ベースのワークロードとモデルの最適化がコスト効率の良いソリューションの需要を推進しています。エッジはその多様なシステムと処理能力により、将来のAIワークロードの中心地として台頭しています。この移行が進行する中、オープンソースプラットフォームと開発環境は、AIの景観全体での互換性と拡張性を促進する上で重要な役割を果たすことでしょう。