Cette page contient les termes du glossaire Google Cloud. Pour consulter tous les termes du glossaire, cliquez ici.
A
chip d'accélération
Catégorie de composants matériels spécialisés conçus pour effectuer les calculs clés nécessaires aux algorithmes de deep learning.
Les puces d'accélération (ou simplement accélérateurs) peuvent augmenter considérablement la vitesse et l'efficacité des tâches d'entraînement et d'inférence par rapport à un processeur à usage général. Elles sont idéales pour l'entraînement des réseaux de neurones et les tâches similaires nécessitant beaucoup de ressources de calcul.
Voici quelques exemples de puces d'accélération :
- Les Tensor Processing Units (TPU) de Google sont dotés d'un matériel dédié au deep learning.
- Les GPU de NVIDIA, bien qu'initialement conçus pour le traitement graphique, sont conçus pour permettre le traitement parallèle, ce qui peut augmenter considérablement la vitesse de traitement.
B
inférence par lot
Processus d'inférence des prédictions sur plusieurs exemples non libellés divisés en sous-ensembles plus petits ("lots").
L'inférence par lot peut tirer parti des fonctionnalités de parallélisation des puces d'accélération. Autrement dit, plusieurs accélérateurs peuvent simultanément inférer des prédictions sur différents lots d'exemples non libellés, ce qui augmente considérablement le nombre d'inférences par seconde.
Pour en savoir plus, consultez Systèmes de ML de production : inférence statique ou dynamique dans le Cours d'initiation au machine learning.
C
Cloud TPU
Accélérateur matériel spécialisé conçu pour accélérer les charges de travail de machine learning sur Google Cloud.
D
appareil
Terme complexe ayant deux définitions possibles :
- Catégorie de matériel pouvant exécuter une session TensorFlow, y compris les CPU, les GPU et les TPU.
- Lors de l'entraînement d'un modèle de ML sur des puces d'accélérateur (GPU ou TPU), il s'agit de la partie du système qui manipule réellement les tenseurs et les embeddings. L'appareil fonctionne avec des puces d'accélération. En revanche, l'hôte s'exécute généralement sur un processeur.
H
hôte
Lors de l'entraînement d'un modèle de ML sur des puces d'accélérateur (GPU ou TPU), la partie du système qui contrôle les deux éléments suivants :
- Le flux global du code.
- Extraction et transformation du pipeline d'entrée.
L'hôte s'exécute généralement sur un processeur, et non sur une puce d'accélération. L'appareil manipule les Tensors sur les puces d'accélération.
M
Grille
En programmation parallèle ML, terme associé à l'attribution des données et du modèle aux puces TPU, et à la définition de la manière dont ces valeurs seront fragmentées ou répliquées.
Le terme "mesh" est complexe et peut désigner l'un des deux concepts suivants :
- Disposition physique des puces TPU.
- Construction logique abstraite permettant de mapper les données et le modèle aux puces TPU.
Dans les deux cas, un maillage est spécifié en tant que forme.
S
segment
Division logique de l'ensemble d'entraînement ou du modèle. En règle générale, un processus crée des partitions en divisant les exemples ou les paramètres en blocs de taille (généralement) égale. Chaque partition est ensuite attribuée à une machine différente.
Le partitionnement d'un modèle est appelé parallélisme des modèles, tandis que le partitionnement des données est appelé parallélisme des données.
T
Tensor Processing Unit (TPU)
Un circuit intégré propre à une application (ASIC) qui optimise les performances des charges de travail de machine learning. Ces ASIC sont déployés sous la forme de plusieurs puces TPU sur un appareil TPU.
TPU
Abréviation de Tensor Processing Unit.
Puce TPU
Accélérateur d'algèbre linéaire programmable avec mémoire à haute bande passante sur puce, optimisé pour les charges de travail de machine learning. Plusieurs puces TPU sont déployées sur un appareil TPU.
Appareil TPU
Carte de circuit imprimé (PCB) avec plusieurs puces TPU, des interfaces réseau à bande passante élevée et du matériel de refroidissement du système.
Nœud TPU
Ressource TPU sur Google Cloud avec un type de TPU spécifique. Le nœud TPU se connecte à votre réseau VPC à partir d'un réseau VPC pair. Les nœuds TPU sont une ressource définie dans l'API Cloud TPU.
Pod TPU
Configuration spécifique d'appareils TPU dans un centre de données Google. Tous les appareils d'un pod TPU sont interconnectés sur un réseau haut débit dédié. Un pod TPU est la plus grande configuration d'appareils TPU disponible pour une version de TPU spécifique.
Ressource TPU
Entité TPU sur Google Cloud que vous créez, gérez ou utilisez. Par exemple, les nœuds TPU et les types de TPU sont des ressources TPU.
Tranche TPU
Une tranche de TPU est une fraction des appareils TPU d'un pod TPU. Tous les appareils d'une tranche TPU sont interconnectés sur un réseau haut débit dédié.
Type de TPU
Configuration d'un ou plusieurs appareils TPU avec une version matérielle TPU spécifique. Vous sélectionnez un type de TPU lorsque vous créez un nœud TPU sur Google Cloud. Par exemple, un type de TPU v2-8
est un appareil TPU v2 unique avec huit cœurs. Un type de TPU v3-2048
comporte 256 appareils TPU v3 en réseau et un total de 2 048 cœurs. Les types de TPU sont des ressources définies dans l'API Cloud TPU.
Nœud de calcul TPU
Processus qui s'exécute sur une machine hôte et exécute des programmes de machine learning sur des appareils TPU.