Glossaire du machine learning: TensorFlow

Cette page contient les termes du glossaire TensorFlow. Pour connaître tous les termes du glossaire, cliquez ici.

B

inférence par lot

#TensorFlow
#GoogleCloud

Processus d'inférence de prédictions sur plusieurs exemples non annotés divisés en sous-ensembles plus petits ("lots").

L'inférence par lot peut exploiter les fonctionnalités de parallélisation des puces d'accélérateur. Autrement dit, plusieurs accélérateurs peuvent simultanément inférer des prédictions sur différents lots d'exemples non annotés, ce qui augmente considérablement le nombre d'inférences par seconde.

Pour en savoir plus, consultez la section Systèmes de ML en production: inférence statique ou dynamique dans le cours d'initiation au machine learning.

C

Cloud TPU

#TensorFlow
#GoogleCloud

Accélérateur matériel spécialisé conçu pour accélérer les charges de travail de machine learning sur Google Cloud.

D

API Dataset (tf.data)

#TensorFlow

API TensorFlow de haut niveau pour lire les données et les transformer en une forme requise par un algorithme de machine learning. Un objet tf.data.Dataset représente une séquence d'éléments, dans laquelle chaque élément contient un ou plusieurs Tensors. Un objet tf.data.Iterator permet d'accéder aux éléments d'un Dataset.

appareil

#TensorFlow
#GoogleCloud

Terme complexe ayant deux définitions possibles:

  1. Catégorie de matériel pouvant exécuter une session TensorFlow, y compris les CPU, les GPU et les TPU.
  2. Lors de l'entraînement d'un modèle de ML sur des chips d'accélérateur (GPU ou TPU), partie du système qui manipule réellement les tensors et les embeddings. L'appareil fonctionne sur des puces d'accélération. En revanche, l'hôte s'exécute généralement sur un processeur.

E

exécution eager

#TensorFlow

Environnement de programmation TensorFlow dans lequel les opérations s'exécutent immédiatement. En revanche, les opérations appelées dans l'exécution de graphe ne sont exécutées que lorsqu'elles sont explicitement évaluées. L'exécution eager est une interface impérative, à l'instar du code de la plupart des langages de programmation. Les programmes d'exécution eager sont généralement bien plus faciles à déboguer que les programmes d'exécution de graphe.

Estimator

#TensorFlow

API TensorFlow obsolète. Utilisez tf.keras au lieu des estimateurs.

F

l'ingénierie des caractéristiques.

#fundamentals
#TensorFlow

Ce processus comprend les étapes suivantes:

  1. Déterminer les caractéristiques susceptibles d'être utiles pour entraîner un modèle.
  2. Convertir les données brutes de l'ensemble de données en versions efficaces de ces fonctionnalités.

Par exemple, vous pouvez déterminer que temperature peut être une fonctionnalité utile. Vous pouvez ensuite tester le groupement pour optimiser ce que le modèle peut apprendre à partir de différentes plages temperature.

L'ingénierie des caractéristiques est parfois appelée extraction de caractéristiques ou featurisation.

Pour en savoir plus, consultez la section Données numériques: comment un modèle ingère des données à l'aide de vecteurs de caractéristiques dans le cours d'initiation au machine learning.

spécification des caractéristiques

#TensorFlow

Décrit les informations requises pour extraire les données de caractéristiques à partir du tampon de protocole tf.Example. Étant donné que le tampon de protocole tf.Example n'est qu'un conteneur de données, vous devez spécifier les éléments suivants:

  • Les données à extraire (c'est-à-dire les clés des éléments géographiques)
  • Type de données (par exemple, float ou int)
  • Longueur (fixe ou variable)

G

graphique

#TensorFlow

Dans TensorFlow, les spécifications du calcul. Les nœuds du graphe représentent des opérations. Les bords sont orientés et représentent le passage du résultat d'une opération (un Tensor) en tant qu'opérande vers une autre opération. Pour visualiser un graphe, utilisez TensorBoard.

exécution de graphe

#TensorFlow

Environnement de programmation TensorFlow dans lequel le programme commence par construire un graphe, puis exécute tout ou partie de ce graphe. L'exécution de graphe est le mode d'exécution par défaut dans TensorFlow 1.x.

À comparer à l'exécution eager.

H

hôte

#TensorFlow
#GoogleCloud

Lors de l'entraînement d'un modèle de ML sur des chips d'accélérateur (GPU ou TPU), la partie du système qui contrôle les deux éléments suivants:

  • Flux global du code.
  • Extraction et transformation du pipeline d'entrée.

L'hôte s'exécute généralement sur un processeur, et non sur une puce d'accélérateur. L'appareil manipule les tensors sur les puces d'accélérateur.

L

API Layers (tf.layers)

#TensorFlow

API TensorFlow pour la construction d'un réseau de neurones profond à partir de plusieurs couches. L'API Layers vous permet de créer différents types de couches, par exemple:

L'API Layers respecte les conventions de l'API Keras concernant les couches. Autrement dit, à l'exception d'un préfixe différent, toutes les fonctions de l'API Layers ont les mêmes noms et signatures que leurs homologues de l'API Keras Layers.

M

Grille

#TensorFlow
#GoogleCloud

En programmation parallèle ML, terme associé à l'attribution des données et du modèle aux puces TPU, et à la définition de la manière dont ces valeurs seront fractionnées ou répliquées.

Le terme "masque" est complexe et peut désigner l'un des concepts suivants:

  • Disposition physique des puces TPU.
  • Construction logique abstraite permettant de mapper les données et le modèle sur les puces TPU.

Dans les deux cas, un maillage est spécifié en tant que forme.

métrique

#TensorFlow
#Metric

Statistique qui vous intéresse.

Un objectif est une métrique qu'un système de machine learning tente d'optimiser.

N

nœud (graphe TensorFlow) (node (TensorFlow graph))

#TensorFlow

Opération dans un graphe TensorFlow.

O

opération (op)

#TensorFlow

Dans TensorFlow, toute procédure qui crée, manipule ou détruit un Tensor. Par exemple, une multiplication matricielle est une opération qui prend deux tenseurs en entrée et génère un tenseur en sortie.

P

Serveur de paramètres (PS)

#TensorFlow

Tâche qui effectue le suivi des paramètres d'un modèle dans une configuration distribuée.

Q

q

#TensorFlow

Opération TensorFlow qui implémente une structure de données de file d'attente. Généralement utilisé dans les E/S.

R

rang (Tensor)

#TensorFlow

Nombre de dimensions d'un Tensor. Par exemple, une grandeur scalaire a un rang de 0, un vecteur un rang de 1 et une matrice un rang de 2.

À ne pas confondre avec le rang (ordinalité).

répertoire racine

#TensorFlow

Répertoire que vous spécifiez pour l'enregistrement des sous-répertoires du point de contrôle TensorFlow et des fichiers d'événements de plusieurs modèles.

S

SavedModel

#TensorFlow

Format recommandé pour l'enregistrement et la récupération des modèles TensorFlow. SavedModel est un format de sérialisation récupérable, de langage neutre, qui permet aux systèmes et aux outils de plus haut niveau de produire, consommer et transformer des modèles TensorFlow.

Pour en savoir plus, consultez la section Enregistrer et restaurer du guide du programmeur TensorFlow.

Économique

#TensorFlow

Objet TensorFlow responsable de l'enregistrement des points de contrôle du modèle.

segment

#TensorFlow
#GoogleCloud

Division logique de l'ensemble d'entraînement ou du modèle. En règle générale, un processus crée des fragments en divisant les exemples ou les paramètres en fragments (généralement) de taille égale. Chaque fragment est ensuite attribué à une machine différente.

Le partitionnement d'un modèle est appelé parallélisme de modèle, tandis que le partitionnement de données est appelé parallélisme de données.

résumé

#TensorFlow

Dans TensorFlow, valeur ou ensemble de valeurs calculées à un pas donné, généralement utilisé pour effectuer le suivi des métriques du modèle pendant l'entraînement.

T

Tensor

#TensorFlow

Structure de données principale des programmes TensorFlow. Les tenseurs sont des structures de données à N dimensions (où N peut être très grand), le plus souvent des scalaires, des vecteurs ou des matrices. Les éléments d'un Tensor peuvent contenir des valeurs de type entier, à virgule flottante ou chaîne.

TensorBoard

#TensorFlow

Tableau de bord qui affiche les résumés enregistrés lors de l'exécution d'un ou de plusieurs programmes TensorFlow.

TensorFlow

#TensorFlow

Plate-forme étendue distribuée de machine learning. Le terme fait également référence à la couche d'API de base de la pile TensorFlow, qui prend en charge le calcul général sur les graphiques de flux de données.

Bien que TensorFlow soit principalement utilisé pour le machine learning, vous pouvez également l'utiliser pour des tâches autres que le ML qui nécessitent des calculs numériques à l'aide de graphiques de flux de données.

TensorFlow Playground

#TensorFlow

Programme qui visualise l'influence de différents hyperparamètres sur l'entraînement d'un modèle (principalement un réseau de neurones). Pour découvrir TensorFlow Playground, rendez-vous sur le site http://playground.tensorflow.org.

TensorFlow Serving

#TensorFlow

Plate-forme permettant de déployer des modèles entraînés en production.

Tensor Processing Unit (TPU)

#TensorFlow
#GoogleCloud

Circuit intégré spécifique à une application (ASIC) qui optimise les performances des charges de travail de machine learning. Ces ASIC sont déployés sous forme de plusieurs puces TPU sur un appareil TPU.

rang de Tensor

#TensorFlow

Voir rang (Tensor).

Forme de Tensor

#TensorFlow

Nombre d'éléments d'un Tensor dans différentes dimensions. Par exemple, un tenseur [5, 10] a une forme de 5 dans une dimension et de 10 dans une autre.

Taille du tenseur

#TensorFlow

Nombre total de grandeurs scalaires d'un Tensor. Par exemple, la taille d'un Tensor [5, 10] est de 50.

tf.Example

#TensorFlow

Protocol Buffer standard pour la description des données d'entrée, pour l'inférence ou l'entraînement d'un modèle de machine learning.

tf.keras

#TensorFlow

Implémentation de Keras intégrée à TensorFlow.

TPU

#TensorFlow
#GoogleCloud

Abréviation de Tensor Processing Unit.

Puce TPU

#TensorFlow
#GoogleCloud

Accélérateur d'algèbre linéaire programmable avec mémoire à bande passante élevée sur puce optimisée pour les charges de travail de machine learning. Plusieurs puces TPU sont déployées sur un appareil TPU.

Appareil TPU

#TensorFlow
#GoogleCloud

Carte de circuit imprimé (PCB) avec plusieurs puces TPU, des interfaces réseau à bande passante élevée et du matériel de refroidissement du système.

Nœud TPU

#TensorFlow
#GoogleCloud

Ressource TPU sur Google Cloud avec un type de TPU spécifique. Le nœud TPU se connecte à votre réseau VPC à partir d'un réseau VPC homologue. Les nœuds TPU sont une ressource définie dans l'API Cloud TPU.

Pod TPU

#TensorFlow
#GoogleCloud

Configuration spécifique des appareils TPU dans un centre de données Google. Tous les appareils d'un pod TPU sont interconnectés sur un réseau haut débit dédié. Un pod TPU est la plus grande configuration d'appareils TPU disponible pour une version de TPU spécifique.

Ressource TPU

#TensorFlow
#GoogleCloud

Entité TPU sur Google Cloud que vous créez, gérez ou consommez. Par exemple, les nœuds TPU et les types de TPU sont des ressources TPU.

Tranche TPU

#TensorFlow
#GoogleCloud

Une tranche TPU est une partie fractionnaire des appareils TPU d'un pod TPU. Tous les appareils d'une tranche TPU sont interconnectés sur un réseau haut débit dédié.

Type de TPU

#TensorFlow
#GoogleCloud

Configuration d'un ou de plusieurs appareils TPU avec une version matérielle TPU spécifique. Vous sélectionnez un type de TPU lorsque vous créez un nœud TPU sur Google Cloud. Par exemple, un type de TPU v2-8 correspond à un seul appareil TPU v2 avec huit cœurs. Un type de TPU v3-2048 comporte 256 appareils TPU v3 en réseau et un total de 2 048 cœurs. Les types de TPU sont une ressource définie dans l'API Cloud TPU.

Nœud de calcul TPU

#TensorFlow
#GoogleCloud

Processus qui s'exécute sur une machine hôte et exécute des programmes de machine learning sur des appareils TPU.