Під час того, як компанії використовують потенціал штучного інтелекту (AI) для своєї бізнес-діяльності, ландшафт робочих навантажень AI пройшов значний зміни. Традиційно обробка робочих навантажень AI відбувалася в центрах обробки даних, що вимагало спеціалізованого та дорогого обладнання для тренування моделей. Однак із розвитком галузі AI з’являється тенденція до робочих навантажень на основі виведення та до оптимізації існуючих моделей. Цей зсув відкриває нові можливості для AI як сервісу, що надається провідними постачальниками хмарних послуг.
В центрах обробки даних спостерігається тенденція до використання традиційних серверів для робочих навантажень AI. Цей рух до більш вигідних рішень відкриває значну перевагу для закладених учасників у галузі центрів обробки даних. Із розвитком новіших та ефективніших методів моделювання традиційні сервери можуть обробляти ці робочі навантаження з вигідним співвідношенням вартість / продуктивність і більшою вибірковістю обчислень. Це усуває необхідність компаній робити основні капіталовкладення в дороге обладнання, яке потрібне лише для навчання.
Тим часом картина робочих навантажень AI готується до того, щоб ребром стати основним призначенням у найближчому майбутньому. Ребро охоплює широкий спектр систем і здатностей обробки, від невеликих масивів датчиків до автономних транспортних засобів та медичних діагностичних засобів. Ця міграція до ребрових систем пропонує численні переваги, такі як зниження затримки, покращення безпеки та збільшення ефективності.
Для підтримки процвітаючої екосистеми ребрових обчислень очікується ключова роль відкритих платформ та середовищ розробки. На відміну від власницьких рішень, таких як Nvidia’s CUDA, відкриті та сумісні екосистеми, такі як Arm і x86, пропонують сумісність для різних обчислювальних потреб. Ця гнучкість дозволяє легко масштабувати та переносити рішення, сприяючи безперервній інтеграції робочих навантажень AI від пристроїв малої потужності до великих обчислювальних середовищ.