Glossaire du machine learning: TensorFlow

Restez organisé à l'aide des collections Enregistrez et classez les contenus selon vos préférences.

Cette page contient les termes du glossaire TensorFlow. Pour consulter tous les termes du glossaire, cliquez ici.

C

Cloud TPU

#TensorFlow
#GoogleCloud

Un accélérateur matériel spécialisé conçu pour accélérer les charges de travail de machine learning sur Google Cloud Platform

D

API Dataset (tf.data)

#TensorFlow

API TensorFlow de haut niveau permettant de lire des données et de les transformer en un format requis par un algorithme de machine learning Un objet tf.data.Dataset représente une séquence d'éléments dans laquelle chaque élément contient un ou plusieurs Tensors. Un objet tf.data.Iterator permet d'accéder aux éléments d'une Dataset.

Pour en savoir plus sur l'API Dataset, consultez la page tf.data: Créer des pipelines d'entrée TensorFlow dans le guide du programmeur TensorFlow.

device

#TensorFlow

Catégorie de matériel pouvant exécuter une session TensorFlow, y compris les processeurs, les GPU et les TPU.

E

exécution rapide

#TensorFlow

Environnement de programmation TensorFlow dans lequel les opérations s'exécutent immédiatement. En revanche, les opérations appelées dans l'exécution de graphe ne s'exécutent pas tant qu'elles n'ont pas été évaluées explicitement. L'exécution simple est une interface impérative, à l'instar du code de la plupart des langages de programmation. Les programmes d'exécution imperméables sont généralement bien plus faciles à déboguer que les programmes d'exécution de graphe.

Estimator

#TensorFlow

API TensorFlow obsolète. Utilisez tf.keras au lieu d'Estimators.

F

spécification des caractéristiques

#TensorFlow

Décrit les informations requises pour extraire les données de la classe features du tampon de protocole tf.Example. Étant donné que le tampon de protocole tf.Example n'est qu'un conteneur pour les données, vous devez spécifier les éléments suivants:

  • Les données à extraire (c'est-à-dire les clés des caractéristiques)
  • Type de données (par exemple, flottant ou entier)
  • Longueur (fixe ou variable)

G

graphique

#TensorFlow

Dans TensorFlow, une spécification de calcul. Les nœuds du graphe représentent des opérations. Les bords sont orientés et représentent la transmission du résultat d'une opération (un Tensor) en tant qu'opérande à une autre opération. Utilisez TensorBoard pour visualiser un graphique.

exécution de graphe

#TensorFlow

Environnement de programmation TensorFlow dans lequel le programme construit d'abord un graphe, puis exécute tout ou partie de ce graphe. L'exécution de graphe est le mode d'exécution par défaut dans TensorFlow 1.x.

À comparer à l'exécution simplifiée.

L

API Layers (tf.layers)

#TensorFlow

API TensorFlow permettant de construire un réseau de neurones profond sous la forme d'une composition de couches. L'API Layers permet de créer différents types de couches, par exemple:

L'API Layers respecte les conventions de l'API Keras concernant les couches. Autrement dit, à l'exception d'un préfixe différent, toutes les fonctions de l'API Layers ont les mêmes noms et signatures que leurs homologues dans l'API des couches Keras.

M

métrique

#TensorFlow

Un nombre qui vous intéresse. Peut ou non être optimisé directement dans un système de machine learning. Une métrique que votre système tente d'optimiser est appelée objectif.

N

nœud (graphe TensorFlow)

#TensorFlow

Opération dans un graphe TensorFlow.

O

Opération (opération)

#TensorFlow

Nœud dans le graphe TensorFlow. Dans TensorFlow, toute procédure qui crée, manipule ou détruit un Tensor est une opération. Par exemple, une multiplication matricielle est une opération qui prend deux Tensors en entrée et génère un Tensor en sortie.

P

Serveur de paramètres (PS)

#TensorFlow

Tâche qui garde la trace des paramètres d'un modèle dans un paramètre distribué.

Q

q

#TensorFlow

Opération TensorFlow qui implémente une structure de données de file d'attente. Généralement utilisé dans les E/S.

R

classement (Tensor)

#TensorFlow

Nombre de dimensions d'un Tensor. Par exemple, une valeur scalaire a un rang de 0, un vecteur un rang de 1 et une matrice un rang de 2.

À ne pas confondre avec le classement (ordinalité).

répertoire racine

#TensorFlow

Répertoire que vous spécifiez pour héberger les sous-répertoires du point de contrôle TensorFlow et les fichiers d'événements de plusieurs modèles.

S

SavedModel

#TensorFlow

Format recommandé pour enregistrer et récupérer des modèles TensorFlow. SavedModel est un format de sérialisation récupérable, de langage neutre, qui permet aux systèmes et outils de niveau supérieur de produire, consommer et transformer des modèles TensorFlow.

Pour en savoir plus, consultez le chapitre Enregistrement et restauration du guide du programmeur TensorFlow.

Économique

#TensorFlow

Objet TensorFlow responsable de l'enregistrement des points de contrôle du modèle.

résumé

#TensorFlow

Dans TensorFlow, valeur ou ensemble de valeurs calculées à un pas particulier, généralement utilisé pour suivre les métriques du modèle pendant l'entraînement.

T

Tensor

#TensorFlow

Structure de données principale des programmes TensorFlow. Les Tensors sont des structures de données à N dimensions (où N peut être très grande), le plus souvent scalaires, vecteurs ou matrices. Les éléments d'un Tensor peuvent contenir des valeurs entières, à virgule flottante ou de chaîne.

TensorBoard

#TensorFlow

Tableau de bord affichant les résumés enregistrés lors de l'exécution d'un ou de plusieurs programmes TensorFlow.

TensorFlow

#TensorFlow

Plate-forme de machine learning distribuée à grande échelle Le terme fait également référence à la couche API de base dans la pile TensorFlow, qui permet d'effectuer des calculs généraux sur les graphiques Dataflow.

Bien que TensorFlow soit principalement utilisé pour le machine learning, vous pouvez également l'utiliser pour des tâches non ML qui nécessitent des calculs numériques à l'aide de graphiques Dataflow.

TensorFlow Playground

#TensorFlow

Programme qui visualise l'influence des différents hyperparamètres sur l'entraînement du modèle (principalement un réseau de neurones). Accédez à http://playground.tensorflow.org pour tester TensorFlow Playground.

TensorFlow Serving

#TensorFlow

Plate-forme permettant de déployer des modèles entraînés en production

Tensor Processing Unit (TPU)

#TensorFlow
#GoogleCloud

Un circuit intégré spécifique à une application qui optimise les performances des charges de travail de machine learning Ces ASIC sont déployés sous la forme de plusieurs puces TPU sur un appareil TPU.

Tensor Tensor

#TensorFlow

Voir rang (Tensor).

Forme Tensor

#TensorFlow

Nombre d'éléments d'un Tensor dans différentes dimensions. Par exemple, un Tensor [5, 10] a une forme 5 dans une dimension et 10 dans une autre.

Taille du Tensor

#TensorFlow

Nombre total de valeurs scalaires d'un Tensor. Par exemple, un Tensor [5, 10] a une taille de 50.

tf.exemple

#TensorFlow

Tampon de protocole standard permettant de décrire les données d'entrée pour l'entraînement ou l'inférence de modèle de machine learning.

tf.keras

#TensorFlow

Implémentation de Keras intégrée à TensorFlow

TPU

#TensorFlow
#GoogleCloud

Abréviation de Tensor Processing Unit.

Puce TPU

#TensorFlow
#GoogleCloud

Accélérateur d'algèbre linéaire programmable avec une mémoire à haut débit sur puce optimisée pour les charges de travail de machine learning. Plusieurs puces TPU sont déployées sur un appareil TPU.

Appareil TPU

#TensorFlow
#GoogleCloud

Un circuit imprimé (PCB) comprenant plusieurs puces TPU, des interfaces réseau à bande passante élevée et du matériel de refroidissement du système

TPU maître

#TensorFlow
#GoogleCloud

Processus de coordination central s'exécutant sur une machine hôte qui envoie et reçoit des données, des résultats, des programmes, des performances et des informations sur l'état du système auprès des nœuds de calcul TPU. Le TPU maître gère également la configuration et l'arrêt des appareils TPU.

Nœud TPU

#TensorFlow
#GoogleCloud

Ressource TPU sur Google Cloud Platform avec un type de TPU spécifique. Le nœud TPU se connecte à votre réseau VPC à partir d'un réseau VPC pair. Les nœuds TPU sont une ressource définie dans l'API Cloud TPU.

pod TPU

#TensorFlow
#GoogleCloud

Configuration spécifique des appareils TPU dans un centre de données Google. Tous les appareils d'un pod TPU sont connectés les uns aux autres via un réseau haut débit dédié. Un pod TPU est la plus grande configuration d'appareils TPU disponible pour une version de TPU donnée.

Ressource TPU

#TensorFlow
#GoogleCloud

Entité TPU sur Google Cloud Platform que vous créez, gérez ou utilisez. Par exemple, les nœuds TPU et les types TPU sont des ressources TPU.

Tranche de TPU

#TensorFlow
#GoogleCloud

Une tranche de TPU est une fraction des appareils TPU contenus dans un pod TPU. Tous les appareils d'une tranche TPU sont connectés les uns aux autres via un réseau haut débit dédié.

Type de TPU

#TensorFlow
#GoogleCloud

Configuration d'un ou plusieurs appareils TPU avec une version spécifique du matériel TPU. Vous sélectionnez un type de TPU lorsque vous créez un nœud TPU sur Google Cloud Platform. Par exemple, un type de TPU v2-8 correspond à un appareil TPU v2 doté de huit cœurs. Un type de TPU v3-2048 comporte 256 appareils TPU v3 en réseau et un total de 2 048 cœurs. Les types de TPU sont des ressources définies dans l'API Cloud TPU.

Travailleur TPU

#TensorFlow
#GoogleCloud

Processus qui s'exécute sur une machine hôte et exécute des programmes de machine learning sur des appareils TPU.