Google Cloud dévoile une nouvelle puce de centre de données basée sur Arm, Axion
Google a rejoint mardi les rangs de ses collègues fournisseurs de services cloud Amazon et Microsoft avec l'annonce de silicium personnalisé pour ses centres de données.
La gamme de processeurs Axion de Google représente ses premiers processeurs basés sur Arm conçus pour le centre de données. “Axion offre des performances et une efficacité énergétique de pointe et sera disponible pour les clients Google Cloud plus tard cette année”, a écrit Amin Vahdat, vice-président et directeur général de la société pour les systèmes d'apprentissage automatique et l'IA cloud, dans un blog d'entreprise.
Selon Google, les processeurs Axion combinent l'expertise en silicium de l'entreprise avec les cœurs de processeur Arm les plus performants pour fournir des instances avec des performances jusqu'à 30 % supérieures à celles des instances Arm à usage général les plus rapides disponibles dans le cloud aujourd'hui et des performances jusqu'à 50 % supérieures. et une efficacité énergétique jusqu'à 60 % supérieure à celle des instances x86 comparables de la génération actuelle.
Google est le troisième des trois grands fournisseurs de services cloud à développer ses propres conceptions de processeurs, a expliqué Bob O'Donnell, fondateur et analyste en chef de Technalysis Research, une société d'études de marché et de conseil en technologie basée à Foster City, en Californie.
“Toutes ces entreprises veulent avoir quelque chose qui leur est unique, quelque chose sur lequel elles peuvent écrire leurs logiciels pour fonctionner et faire les choses avec plus d'efficacité”, a-t-il déclaré à TechNewsWorld.
“La consommation d'énergie des centres de données est l'un de leurs coûts les plus importants, et les conceptions Arm sont généralement plus économes en énergie que celles d'Intel”, a-t-il poursuivi. “Google ne va pas se débarrasser d'Intel, mais Axion leur offre une nouvelle option, et pour certains types de charges de travail, ce sera une meilleure alternative.”
Il y a aussi des considérations de marché. “Tout le monde veut une alternative à Nvidia”, a déclaré O'Donnell. « Personne ne veut d'une entreprise qui détient une part de marché de 90 %, à moins que vous ne soyez l'entreprise qui détient cette part de 90 %. »
Mauvaise nouvelle pour Intel
Benjamin Lee, professeur d'ingénierie à l'Université de Pennsylvanie, a expliqué que Google peut personnaliser ses composants matériels pour améliorer les performances et l'efficacité en concevant son propre processeur.
“Une grande partie de cette efficacité provient de la création de contrôleurs personnalisés qui gèrent des calculs importants pour la sécurité, la mise en réseau et la gestion du matériel”, a-t-il déclaré à TechNewsWorld. « En gérant les calculs comptables requis dans les serveurs des centres de données, ces contrôleurs matériels personnalisés libèrent davantage de CPU pour les calculs des utilisateurs et des clients. »
L'utilisation de processeurs Arm dans les centres de données est une mauvaise nouvelle pour Intel, qui a historiquement dominé le marché des centres de données avec ses processeurs x86, a-t-il noté.
Processeur Axion de Google (Crédit image : Google)
“Cette annonce montre une transition accélérée des architectures x86 vers Arm pour le marché des serveurs, qui est la récompense ultime pour les fabricants de puces”, a ajouté Rodolfo Rosini, co-fondateur et PDG de Vaire, une société d'informatique réversible avec des bureaux à Seattle. et Londres.
“Je soupçonne qu'Arm tirera davantage parti de cette annonce que Google à long terme”, a-t-il déclaré à TechNewsWorld.
Montée du silicium exclusif
Axion est un autre exemple d'acteurs majeurs – tels qu'Apple et Tesla – qui investissent dans leurs propres conceptions de puces, a observé Gaurav Gupta, vice-président des semi-conducteurs et de l'électronique chez Gartner, une société de recherche et de conseil basée à Stamford, Connecticut.
“Nous considérons cela comme une tendance majeure”, a-t-il déclaré à TechNewsWorld. «Nous appelons cela OEM Foundry Direct, où les OEM contournent ou font appel à des entreprises de conception et se rendent directement à la fonderie pour obtenir leur silicium. Ils le font pour un meilleur contrôle des coûts et de la feuille de route, des synergies IP, etc. Nous continuerons à en voir davantage.
Avec cette annonce, Google met son poids financier et technique substantiel derrière une tendance du marché selon laquelle les semi-conducteurs – comme les processeurs et les accélérateurs – sont conçus en fonction de la façon dont ils vont être utilisés, a expliqué Shane Rau, analyste des semi-conducteurs chez IDC, une société mondiale. société d'études de marché.
“Aucun processeur ou accélérateur unique ne peut gérer toutes les charges de travail et toutes les applications dont disposent les clients cloud de Google. Google leur propose donc un autre choix en matière d'accélération du processeur et de l'IA”, a-t-il déclaré à TechNewsWorld.
Disponibilité générale du TPU v5p
En plus de l'annonce d'Axion, Google a annoncé la disponibilité générale de Cloud TPU v5p, l'unité de traitement Tensor la plus puissante et la plus évolutive de la société à ce jour.
L'accélérateur est conçu pour former certains des modèles d'IA générative les plus importants et les plus exigeants, a expliqué la société dans un blog. Un seul pod TPU v5p contient 8 960 puces qui fonctionnent à l’unisson – soit plus de 2 fois les puces d’un pod TPU v4 – et peut fournir plus de 2 fois plus de FLOPS et 3 fois plus de mémoire à bande passante élevée par puce.
“Le développement par Google de SoC Tensor pour ses téléphones Pixel et l'avancement d'unités de traitement Tensor plus puissantes pour les centres de données soulignent son engagement à accélérer efficacement les charges de travail d'apprentissage automatique”, a observé Dan deBeaubien, responsable de l'innovation au SANS Institute, un organisme mondial de formation en cybersécurité. , organisme d’éducation et de certification.
“Cette distinction met en évidence l'approche de Google visant à optimiser les environnements mobiles et de centres de données pour les applications d'IA”, a-t-il déclaré à TechNewsWorld.
Abdullah Anwer Ahmed, fondateur de Serene Data Ops, une société de gestion de données à Dublin, Ohio, a ajouté que le TPU de Google ajoute une autre option pour l'inférence à moindre coût dans le cloud de Google.
Les coûts d'inférence correspondent à ce que les utilisateurs paient pour exécuter leurs modèles d'apprentissage automatique dans le cloud. Ces coûts peuvent atteindre 90 % du coût total de fonctionnement de l’infrastructure ML.
“Si une startup utilise déjà Google Cloud et que ses coûts d'inférence commencent à dépasser les coûts de formation, il peut être judicieux de passer aux TPU Google pour réduire les coûts, en fonction de la charge de travail”, a déclaré Ahmed à TechNewsWorld.
Promouvoir la durabilité
En plus de performances améliorées, Google a noté que ses nouvelles puces Axion contribueraient à ses objectifs de développement durable. « Au-delà de la performance, les clients souhaitent fonctionner plus efficacement et atteindre leurs objectifs en matière de développement durable », écrit Vahdat. « Avec les processeurs Axion, les clients peuvent optimiser pour encore plus d'efficacité énergétique. »
« Les centres de données consomment beaucoup d’énergie puisqu’ils fonctionnent 24h/24 et 7j/7. La réduction de la consommation d’énergie contribue effectivement à la durabilité », a déclaré Ahmed.
“Le processeur basé sur Arm est beaucoup plus économe en énergie que le x86”, a ajouté O'Donnell. « C'est un gros problème car les coûts énergétiques sont énormes dans ces centres de données. Ces entreprises doivent travailler pour réduire cela. C'est l'une des raisons pour lesquelles ils utilisent tous Arm.
« À mesure que les demandes en matière de calcul augmentent, vous ne pouvez pas faire cela éternellement parce que la capacité dans le monde est limitée, vous devez donc être plus intelligent à ce sujet », a-t-il ajouté. “C'est pour cela qu'ils travaillent tous à faire.”