Alors que les entreprises explorent le potentiel de l’intelligence artificielle (IA) pour leurs opérations commerciales, le paysage des charges de travail en IA connaît un changement significatif. Traditionnellement, les charges de travail en IA étaient traitées dans des centres de données, nécessitant des matériels spécialisés et coûteux pour l’entraînement des modèles. Cependant, à mesure que le domaine de l’IA évolue, on observe une tendance croissante vers les charges de travail basées sur l’inférence et l’optimisation des modèles existants. Ce changement ouvre de nouvelles opportunités pour l’IA en tant que service, fourni par les principaux fournisseurs de services cloud.
Dans les centres de données, on observe une tendance émergente à l’utilisation de serveurs traditionnels pour les charges de travail en IA. Ce passage vers des solutions plus économiques offre un avantage significatif pour les acteurs établis dans le domaine des centres de données. Avec le développement de méthodes de modélisation plus récentes et plus efficaces, les serveurs traditionnels peuvent gérer ces charges de travail avec un rapport coût/performance favorable et une plus grande disponibilité en calcul. Cela élimine le besoin pour les entreprises de réaliser des investissements en capital importants dans des matériels coûteux qui ne sont nécessaires que pour la formation.
Pendant ce temps, l’informatique en périphérie (edge computing) est sur le point de devenir la destination principale des charges de travail en IA dans un avenir proche. Le périmètre englobe un large éventail de systèmes et de capacités de traitement, allant des petites matrices de capteurs aux véhicules autonomes et aux diagnostics médicaux. Cette migration vers des systèmes en périphérie offre de nombreux avantages, notamment une réduction de la latence, une amélioration de la sécurité et une plus grande efficacité.
Pour soutenir l’écosystème prospère de l’informatique en périphérie, les plateformes open-source et les environnements de développement devraient jouer un rôle crucial. Contrairement à des solutions propriétaires comme CUDA de Nvidia, des écosystèmes ouverts et compatibles tels que Arm et x86 offrent une compatibilité avec différents besoins en calcul. Cette flexibilité permet un ajustement et une portabilité faciles des solutions, facilitant l’intégration sans faille des charges de travail en IA, des petits appareils aux grands environnements de calcul.
La croissance rapide de l’Internet des objets (IoT) crée un besoin supplémentaire de solutions évolutives dans l’espace de l’informatique en périphérie. Avec l’IoT, les appareils sont souvent plus petits et fonctionnent avec moins de puissance, ce qui rend essentiel l’établissement d’un écosystème ouvert capable de répondre à ces exigences spécifiques. Ainsi, la collaboration entre les plateformes open-source et l’industrie croissante de l’IoT offre un grand potentiel pour stimuler l’innovation et faire progresser davantage le domaine de l’IA.
En conclusion, le paysage des charges de travail en IA évolue des centres de données traditionnels vers des environnements d’informatique en périphérie. Alors que les centres de données continuent de jouer un rôle important, la montée des charges de travail basées sur l’inférence et l’optimisation des modèles alimente une demande de solutions économiques. L’informatique en périphérie, avec sa gamme diversifiée de systèmes et de capacités de traitement, se positionne comme le futur pôle des charges de travail en IA. Au fur et à mesure que cette transition s’opère, les plateformes open-source et les environnements de développement joueront un rôle crucial en facilitant la compatibilité et la scalabilité dans le paysage de l’IA.