همانطور که شرکتها از توانمندی هوش مصنوعی (AI) برای عملیات تجاری خود استفاده میکنند، منظره بارهای کاری AI در حال تغییر قابل توجهی است. به طور سنتی، بارهای کاری AI در مراکز داده پردازش میشدند و برای آموزش مدلها به سختافزارهای تخصصی و گرانقیمت نیاز بود. با این حال، همچنین، با رشد علم AI، جهتگیری بیشتری به سمت بارهای کاری بر پایه استنتاج و بهینهسازی مدلهای موجود دیده میشود. این تغییر فرصتهای جدیدی برای استفاده از خدمات AI به عنوان یک سرویس، توسط تامینکنندگان بزرگ ابر پیشنهادی ایجاد میکند.
در مرکز داده، گرایشی به سمت استفاده از سرورهای سنتی برای بارهای کاری AI به وجود آمده است. این حرکت به سمت راهکارهای هزینهایتر، یک مزیت قابل توجه برای بازیگران برجسته در صنعت مراکز داده ارائه میدهد. همچنین، با توسعه روشهای مدلسازی جدید و کارآمدتر، سرورهای سنتی میتوانند این بارهای کاری را با نسبت هزینه/عملکرد مطلوبی تحمل کنند و توانایی محاسبهای بیشتری داشته باشند. این اقدام نیاز به شرکتها برای انجام سرمایهگذاریهای اصلی در سختافزارهای گرانقیمتی که تنها برای موارد آموزش لازم است، را از بین میبرد.
در همین حال، محاسبات لبه به عنوان مقصد اصلی بارهای کاری AI در آینده نزدیک دستهبندی میشود. لبه یک فضای گسترده از سیستمها و تواناییهای پردازشی را اشمل میشود، از مجموعههای حسگر کوچک تا وسایل نقلیه خودران و تشخیص پزشکی. این مهاجرت به سیستمهای مبتنی بر لبه بسیاری از مزایایی، از جمله کاهش تاخیر، بهبود امنیت و افزایش کارآمدی را ارائه میدهد.
برای حمایت از جامعه مزده محاسبات لبه، امیدوارید بسترها و محیطهای توسعه منبع باز نقشی مهم را بازی کنند. برخلاف راهحلهای اختصاصی، مانند CUDA شرکت Nvidia، اکوسیستمهای باز و همخوان Arm و x86 سازگاری را بین نیازهای محاسباتی مختلف ارائه میدهند. این انعطافپذیری، مقیاسپذیری و انتقال راحت را برای راهحلها فراهم میکند، تسهیل به معنای یکپارچهسازی بارهای کاری AI از دستگاههای کوچک تا محیطهای محاسباتی بزرگ کرد.
رشد سریع اینترنت اشیا (IoT) نیاز اضافیای برای راهکارهای مقیاسپذیر در حوزه محاسبات لبه ایجاد کرده است. با IoT، دستگاهها معمولاً کوچکتر هستند و برای کاربرد با قدرت کمتری عمل میکنند، که این امر باعث تأکید بر ایجاد یک اکوسیستم باز میشود که بتواند به این نیازهای خاص پاسخ دهد. بنابراین، همکاری بین بسترهای منبع باز و صنعت IoT در حال گسترش، قدرتمند برای پیشبرد نوآوری و پیشرفت بیشتر در حوزه AI دارد.
به طور خلاصه، منظره بارهای کاری AI از مراکز دادههای سنتی به محیطهای محاسبات لبه منتقل میشود. در حالی که مراکز داده همچنان نقش مهمی را ایفا میکنند، ظهور بارهای کاری بر پایه استنتاج و بهینهسازی مدلها تقاضای راهکارهای هزینهای را پیش میبرد. لبه، با زمینهای گسترده از سیستمها و تواناییهای پردازشی، به عنوان هاب آینده بارهای کاری AI ظاهر میشود. همچنین، در این گذر از پلتفرمهای منبع باز و محیطهای توسعه نقش بحرانی در تسهیل سازگاری و مقیاسپذیری در ارتباط با منظره AI ایفا خواهند کرد.