Cette page contient les termes du glossaire TensorFlow. Pour consulter tous les termes du glossaire, cliquez ici.
C
Cloud TPU
Accélérateur matériel spécialisé conçu pour accélérer les charges de travail de machine learning sur Google Cloud Platform.
D
API Dataset (tf.data)
Une API TensorFlow de haut niveau pour lire les données et les transformer dans un format requis par un algorithme de machine learning
Un objet tf.data.Dataset
représente une séquence d'éléments dans laquelle chaque élément contient un ou plusieurs Tensors. Un objet tf.data.Iterator
fournit un accès aux éléments d'une Dataset
.
Pour en savoir plus sur l'API Dataset, consultez la page tf.data: créer des pipelines d'entrée TensorFlow du guide du programmeur TensorFlow.
appareil
Catégorie de matériel pouvant exécuter une session TensorFlow, y compris les processeurs, les GPU et les TPU.
E
exécution rapide
Environnement de programmation TensorFlow dans lequel les opérations s'exécutent immédiatement. En revanche, les opérations appelées lors de l'exécution du graphique ne s'exécutent pas tant qu'elles n'ont pas été explicitement évaluées. Une exécution standard est une interface impérative, semblable au code de la plupart des langages de programmation. Les programmes d'exécution extrêmes sont généralement beaucoup plus faciles à déboguer que les programmes d'exécution de graphe.
Estimator
API TensorFlow obsolète. Utilisez tf.keras au lieu d'Estimators.
F
extraction de caractéristiques
Un processus comprend les étapes suivantes:
- Déterminer les caractéristiques qui pourraient s'avérer utiles pour entraîner un modèle.
- Convertir des données brutes de l'ensemble de données en versions efficaces de ces caractéristiques
Par exemple, vous pouvez déterminer que temperature
peut être une fonctionnalité utile. Vous pouvez ensuite tester le binning pour optimiser ce que le modèle peut apprendre à partir de différentes plages temperature
.
L'extraction de caractéristiques est parfois appelée extraction de caractéristiques.
spécification des caractéristiques
Décrit les informations requises pour extraire les données de caractéristiques du tampon de protocole tf.Example. Étant donné que le tampon de protocole tf.Example n'est qu'un conteneur pour les données, vous devez spécifier les éléments suivants:
- les données à extraire (c'est-à-dire les clés des caractéristiques)
- Type de données (par exemple, nombre à virgule flottante ou entier)
- Longueur (fixe ou variable)
G
graphique
Dans TensorFlow, une spécification de calcul. Les nœuds du graphique représentent les opérations. Les arêtes sont dirigées et représentent la transmission du résultat d'une opération (un Tensor) en tant qu'opérande à une autre opération. Utilisez TensorBoard pour visualiser un graphique.
exécution du graphique
Environnement de programmation TensorFlow dans lequel le programme construit d'abord un graphique, puis exécute tout ou partie de ce graphe. L'exécution de graphe est le mode d'exécution par défaut dans TensorFlow 1.x.
À comparer à l'exécution optimale.
L
API Layers (tf.layers)
API TensorFlow permettant de construire un réseau de neurones profond à partir de plusieurs couches. L'API Layers vous permet de créer différents types de couches, par exemple:
tf.layers.Dense
pour une couche entièrement connectée.tf.layers.Conv2D
pour une couche convolutive.
L'API Layers respecte les conventions de l'API Keras concernant les couches. Autrement dit, à part un préfixe différent, toutes les fonctions de l'API Layers ont les mêmes noms et signatures que leurs homologues dans l'API Keras Layers.
L
métrique
Une statistique qui vous tient à cœur.
Un objectif est une métrique qu'un système de machine learning tente d'optimiser.
N
nœud (graphe TensorFlow)
Opération dans un graphique TensorFlow.
O
opération (opération)
Dans TensorFlow, toute procédure qui crée, manipule ou détruit un Tensor. Par exemple, une multiplication matricielle est une opération qui utilise deux Tensors en entrée et génère un Tensor en sortie.
P
Serveur de paramètres (PS)
Tâche qui effectue le suivi des paramètres d'un modèle dans un paramètre distribué.
Q
q
Opération TensorFlow qui implémente une structure de données de file d'attente. Généralement utilisé dans les E/S.
D
rang (Tensor)
Nombre de dimensions d'un Tensor. Par exemple, un scalaire a un rang de 0, un vecteur a un rang de 1, et une matrice a un rang de 2.
À ne pas confondre avec le rang (ordinalité).
répertoire racine
Répertoire que vous spécifiez pour héberger des sous-répertoires du point de contrôle TensorFlow et des fichiers d'événements de plusieurs modèles.
S
SavedModel
Format recommandé pour enregistrer et récupérer des modèles TensorFlow. SavedModel est un format de sérialisation récupérable et indépendant du langage, qui permet aux systèmes et aux outils de niveau supérieur de produire, consommer et transformer des modèles TensorFlow.
Pour plus d'informations, consultez le chapitre Enregistrement et restauration du guide du programmeur TensorFlow.
Économique
Un objet TensorFlow responsable de l'enregistrement des points de contrôle du modèle
résumé
Dans TensorFlow, valeur ou ensemble de valeurs calculées à une étape particulière, généralement utilisée pour suivre les métriques du modèle pendant l'entraînement.
T
Tensor
Structure de données principale des programmes TensorFlow Les Tensors sont des structures de données à N dimensions (où N peut être très grande), le plus souvent des scalaires, des vecteurs ou des matrices. Les éléments d'un Tensor peuvent contenir des valeurs entières, à virgule flottante ou de chaîne.
TensorBoard
Tableau de bord qui affiche les résumés enregistrés lors de l'exécution d'un ou de plusieurs programmes TensorFlow.
TensorFlow
Plate-forme de machine learning distribuée à grande échelle Le terme désigne également la couche API de base de la pile TensorFlow, qui permet des calculs généraux sur les graphiques Dataflow.
Bien que TensorFlow soit principalement utilisé pour le machine learning, vous pouvez également l'utiliser pour les tâches non liées au ML qui nécessitent des calculs numériques à l'aide de graphiques Dataflow.
TensorFlow Playground
Programme qui visualise l'influence des différents hyperparamètres sur l'entraînement du modèle (principalement un réseau de neurones). Accédez à http://playground.tensorflow.org pour tester TensorFlow Playground.
TensorFlow Serving
plate-forme permettant de déployer des modèles entraînés en production
Tensor Processing Unit (TPU)
Un circuit intégré spécifique à l'application (ASIC) qui optimise les performances des charges de travail de machine learning Ces ASIC sont déployés sous la forme de plusieurs chips TPU sur un appareil TPU.
Tensor Tensor
Voir rang (Tensor).
Forme de Tensor
Nombre d'éléments d'un Tensor dans différentes dimensions. Par exemple, un Tensor [5, 10] a une forme de 5 dans une dimension et de 10 dans une autre.
Taille du Tensor
Nombre total de valeurs scalaires d'un Tensor. Par exemple, la taille d'un Tensor [5, 10] est de 50.
tf.Exemple
Tampon de protocole standard permettant de décrire les données d'entrée pour l'inférence ou l'entraînement de modèle de machine learning.
tf.keras
Implémentation de Keras intégré à TensorFlow
TPU
Abréviation de Tensor Processing Unit.
Puce TPU
Un accélérateur d'algèbre linéaire programmable avec une mémoire à haut débit sur puce optimisée pour les charges de travail de machine learning. Plusieurs puces TPU sont déployées sur un appareil TPU.
Appareil TPU
Une carte de circuit imprimé (PCB) avec plusieurs puces TPU, des interfaces réseau à bande passante élevée et du matériel de refroidissement du système.
TPU maître
Processus de coordination central exécuté sur une machine hôte qui envoie et reçoit des données, des résultats, des programmes, des performances et des informations sur l'état du système auprès des nœuds de calcul TPU. Le TPU maître gère également la configuration et l'arrêt des appareils TPU.
Nœud TPU
Une ressource TPU sur Google Cloud Platform avec un type TPU spécifique. Le nœud TPU se connecte à votre réseau VPC à partir d'un réseau VPC pair. Les nœuds TPU sont une ressource définie dans l'API Cloud TPU.
pod TPU
Configuration spécifique d'appareils TPU dans un centre de données Google. Tous les appareils d'un pod TPU sont connectés les uns aux autres via un réseau haut débit dédié. Un pod TPU est la plus grande configuration d'appareils TPU disponible pour une version de TPU donnée.
Ressource TPU
Une entité TPU sur Google Cloud Platform que vous créez, gérez ou utilisez Par exemple, les nœuds TPU et les types TPU sont des ressources TPU.
Segment de TPU
Une tranche TPU est une portion fractionnée des appareils TPU d'un pod TPU. Tous les appareils d'une tranche TPU sont connectés les uns aux autres via un réseau haut débit dédié.
Type de TPU
Configuration d'un ou plusieurs appareils TPU avec une version matérielle spécifique. Vous sélectionnez un type de TPU lorsque vous créez un nœud TPU sur Google Cloud Platform. Par exemple, un type de TPU v2-8
est un appareil TPU v2 doté de huit cœurs. Un type de TPU v3-2048
dispose de 256 appareils TPU v3 en réseau et d'un total de 2 048 cœurs. Les types de TPU sont une ressource définie dans l'API Cloud TPU.
Travailleur TPU
Processus qui s'exécute sur une machine hôte et exécute des programmes de machine learning sur des appareils TPU.