Les puces Core Ultra, conçues pour les PC portables, intègrent un circuit spécialisé baptisé NPU, améliorant l'exécution des programmes recourant à l’IA. (Crédit Intel)
Les PC et les smartphones vont devenir le siège du traitement des données de GenAI, prenant ainsi le pas sur le recours au cloud pour la réalisation de ces calculs. D'ici quelques années, la majorité des équipements d'informatique personnelle livrés dans le monde seront des modèles capables d'effectuer cette tâche.
Cette année, un PC sur cinq vendu dans le monde devrait être équipé d'une puce dédiée à l'intelligence artificielle. En 2027, le rapport devrait passer à six ordinateurs sur dix. En valeur absolue, ces prévisions, établies par IDC, devraient se traduire par la commercialisation de 50 millions de PC IA en 2024, puis par la livraison de 167 millions de ces équipements trois ans plus tard. S'agissant des smartphones IA, Gartner table de son côté sur 240 millions de produits écoulés en 2024, soit 22 % du total des volumes de ventes de smartphones qu'il attend sur la même période.
Le traitement déporté des données d'IA n'est pas un modèle viable
Actuellement, la formation des grands modèles de langage (LLM), à la base de l'IA, et le traitement des données d'IA s'effectuent dans des data centers cloud, des centres d'hébergement en colocation ou des data centers de grandes entreprises. Toutefois, ce modèle n'est pas viable pour diverses raisons. L'un des problèmes d'un écosystème basé sur le cloud est la quantité massive de traitement GPU spécialisé et d'électricité nécessaire pour faire fonctionner les LLM, ainsi que les problèmes potentiels de connectivité réseau. Or, l'industrie de la genAI est déjà confrontée à une pénurie de processeurs spécialisés nécessaires pour former et faire fonctionner les LLM (Il faut jusqu'à trois ans pour lancer une nouvelle usine de silicium à cette fin.).
De fait, les fabricants d'équipements de périphérie migrent déjà les charges de travail d'IA du cloud vers les utilisateurs finaux. Cela peut améliorer les performances en éliminant les allers-retours que les charges de travail d'IA doivent actuellement effectuer sur les réseaux. Selon IDC et d'autres, le fait de déplacer l'IA vers des puces spécialisées dans les équipements de périphérie améliorera également la confidentialité et la sécurité des données en les conservant localement. Cela peut aussi réduire les coûts, en limitant la nécessité d'accéder à des ressources dans le cloud coûteuses pour la formation des LLM et le traitement de l'inférence. L'inférence en IA est la capacité d'un système à faire des prédictions - qu'il s'agisse de la prochaine phrase, de la prochaine image ou de la prochaine ligne de code - à partir de nouvelles données.
La GenIA alimente la croissance de l'Edge Computing
L'intégration de la GenAI dans la transformation numérique des entreprises alimente la croissance de l'Edge computing au sens large. Cela fait de ce dernier le segment de l'informatique à la croissance la plus rapide, plus importante que celle du cloud. D'ici 2025, plus de 50 % des données gérées par les entreprises seront créées et traitées en dehors de centres de données ou du cloud, selon Gartner.
« L'adoption rapide des capacités de genAI sur les appareils et les processeurs d'IA finira par devenir une exigence standard pour les fournisseurs de technologie », déclare Ranjit Atwal, analyste chez Gartner. « Cette omniprésence va poser des problèmes aux fournisseurs pour se différencier de leurs concurrents et donc augmenter leurs revenus », ajoute-t-il. Les fabricants de microprocesseurs, notamment Nvidia, Intel et AMD, ont déjà commencé à se concentrer sur la production de chiplets SoC et de NPU dédiés. Ils aident les CPU et les GPU des équipements périphériques à exécuter les tâches de genAI.
Suivez-nous