Google Cloud veut faciliter l'exécution de charges de travail ML massives

Google Cloud veut faciliter l'exécution de charges de travail ML massives

Google Cloud a annoncé la disponibilité générale de ses machines virtuelles TPU.

Les unités de traitement de tenseur (TPU) sont des circuits intégrés spécifiques à l'application (ASIC) développés par Google qui sont utilisés pour accélérer les charges de travail d'apprentissage automatique.

Cloud TPU vous permet d'exécuter vos charges de travail de machine learning sur le matériel d'accélération TPU du géant de l'hébergement cloud à l'aide de la plate-forme de machine learning open source TensorFlow.

Que peuvent faire les machines virtuelles TPU pour les utilisateurs ?

Google affirme que sa communauté d'utilisateurs a adopté les TPU virtuels car ils offrent une meilleure expérience de débogage et permettent également certaines configurations de formation, y compris l'apprentissage par renforcement distribué, qui, selon lui, n'étaient pas réalisables avec l'architecture de nœud UPT (réseau) existant de Google.

Selon Google, les Cloud TPU sont optimisés pour les charges de travail de classification et de recommandation à grande échelle, citant comment Snap a été l'un des premiers à adopter cette fonctionnalité.

De plus, avec la version GA des machines virtuelles TPU, Google introduit une nouvelle API d'intégration TPU, qui, selon elle, peut accélérer les charges de travail de classification et de recommandation basées sur ML.

Google a souligné combien d'entreprises modernes s'appuient sur des cas d'utilisation de classement et de recommandation, tels que des recommandations audio et vidéo, des recommandations de produits et le classement des annonces.

Le géant de la technologie a déclaré que les TPU peuvent aider les entreprises à mettre en œuvre une approche basée sur un réseau neuronal profond pour répondre aux cas d'utilisation ci-dessus, qui, selon lui, peuvent être coûteux et gourmands en ressources.

Google affirme également que ses machines virtuelles TPU offrent plusieurs fonctionnalités supplémentaires par rapport à l'architecture de nœud TPU existante en raison de sa configuration d'exécution locale, car le pipeline de données d'entrée peut s'exécuter directement sur les hôtes TPU, ce qui permet aux organisations d'économiser des ressources informatiques.

TPU VM GA Release prend également en charge d'autres frameworks ML majeurs tels que PyTorch et JAX.

Intéressé par la mise en œuvre d'un TPU virtuel ? Vous pouvez suivre l'un des guides de démarrage rapide ou des didacticiels de Google.