Questa pagina contiene i termini del glossario TensorFlow. Per tutti i termini del glossario, fai clic qui.
B
inferenza batch
il processo di inferenza di previsioni su più esempi senza etichetta suddivisi in sottoinsiemi più piccoli ("batch").
L'inferenza batch può sfruttare le funzionalità di parallelismo dei chip dell'acceleratore. In altri termini, più acceleratori possono dedurre simultaneamente le previsioni su gruppi diversi di esempi senza etichetta, aumentando notevolmente il numero di inferenze al secondo.
C
Cloud TPU
Un acceleratore hardware specializzato progettato per velocizzare i carichi di lavoro di machine learning in Google Cloud Platform.
D
API Dataset (tf.data)
Un'API TensorFlow di alto livello per la lettura dei dati e
la trasformazione in una forma richiesta da un algoritmo di machine learning.
Un oggetto tf.data.Dataset
rappresenta una sequenza di elementi, in cui
ogni elemento contiene uno o più Tensor. Un oggetto tf.data.Iterator
fornisce accesso agli elementi di un Dataset
.
Per dettagli sull'API Dataset, consulta tf.data: Build TensorFlow input pipelines in TensorFlow Programmer's Guide.
dispositivo
Un termine sovraccarico con le seguenti due definizioni possibili:
- Una categoria di hardware in grado di eseguire una sessione TensorFlow, tra cui CPU, GPU e TPU.
- Durante l'addestramento di un modello ML su chip di acceleratore (GPU o TPU), la parte del sistema che manipola i tensori e gli incorporamenti. Il dispositivo esegue chip di acceleratore. Al contrario, l'host in genere viene eseguito su una CPU.
E
desiderio impaziente di eseguire
Un ambiente di programmazione TensorFlow in cui vengono eseguite immediatamente le operazioni. Al contrario, le operazioni chiamate nell'esecuzione del grafico non vengono eseguite finché non vengono valutate esplicitamente. L'esecuzione agile è un'interfaccia imperativa, molto simile al codice nella maggior parte dei linguaggi di programmazione. In genere, i programmi di esecuzione pronti sono molto più facili da sottoporre a debug rispetto ai programmi di esecuzione dei grafici.
Stimatore
Un'API TensorFlow deprecata. Utilizza tf.keras al posto degli stimatori.
V
feature engineering
Una procedura che comprende i seguenti passaggi:
- Determinare quali funzionalità potrebbero essere utili per addestrare un modello.
- Convertire i dati non elaborati del set di dati in versioni efficienti di queste funzionalità.
Ad esempio, potresti stabilire che temperature
potrebbe essere una funzionalità utile. Poi, puoi sperimentare il bucket
per ottimizzare ciò che il modello può imparare da diversi intervalli temperature
.
La feature engineering viene talvolta chiamata estrazione di funzionalità.
specifiche della funzionalità
Descrive le informazioni necessarie per estrarre i dati delle funzionalità dal buffer di protocollo tf.Example. Poiché il buffer di protocollo tf.Example è solo un container per i dati, devi specificare il seguente:
- i dati da estrarre (ovvero le chiavi per le funzionalità)
- Il tipo di dati (ad esempio, mobile o int)
- La lunghezza (fissa o variabile)
G
grafico
In TensorFlow, una specifica di calcolo. I nodi nel grafico rappresentano le operazioni. I bordi sono diretti e rappresentano il risultato di un'operazione (Tensor) come operativo a un'altra operazione. Utilizza TensorBoard per visualizzare un grafico.
esecuzione del grafico
Un ambiente di programmazione TensorFlow in cui il programma crea prima un grafico e poi esegue tutto o parte del grafico. L'esecuzione del grafico è la modalità di esecuzione predefinita in TensorFlow 1.x.
Contrasto con preziosa esecuzione.
H
padrone di casa
Durante l'addestramento di un modello ML su chip di acceleratore (GPU o TPU), la parte del sistema che controlla entrambi i seguenti aspetti:
- Il flusso complessivo del codice.
- L'estrazione e la trasformazione della pipeline di input.
In genere l'host viene eseguito su una CPU, non su un chip di acceleratore; il dispositivo manipola i tensori sui chip di acceleratore.
L
API Layers (tf.layer)
Un'API TensorFlow per la creazione di una rete neurale epa come una composizione di livelli. L'API Livelli ti consente di creare diversi tipi di livelli, come:
tf.layers.Dense
per un livello completamente collegato.tf.layers.Conv2D
per un livello convoluzionale.
L'API Livelli segue le convenzioni dell'API Keras. In altre parole, oltre a un prefisso diverso, tutte le funzioni nell'API Livelli hanno gli stessi nomi e firme delle rispettive controparti nell'API Livelli Keras.
L
mesh
Nella programmazione parallela del machine learning, un termine associato all'assegnazione di dati e modelli ai chip TPU e che definisce il modo in cui questi valori verranno suddivisi o replicati.
Mesh è un termine sovraccarico che può significare che:
- Un layout fisico dei chip TPU.
- Un costrutto logico astratto per mappare i dati e il modello ai chip TPU.
In entrambi i casi, un mesh è specificato come forma.
metrica
Una statistica che ti sta a cuore.
Un obiettivo è una metrica che un sistema di machine learning cerca di ottimizzare.
No
nodo (grafico TensorFlow)
Un'operazione in un grafico TensorFlow.
O
operazione (op)
In TensorFlow, qualsiasi procedura che crea, manipola o distrugge un Tensor. Ad esempio, un moltiplicatore di matrici è un'operazione che prende due Tensor come input e genera un Tensor come output.
P
Server dei parametri (PS)
Un job che tiene traccia dei parametri di un modello in un'impostazione distribuita.
D
queue
Un'operazione TensorFlow che implementa una struttura di dati della coda. Utilizzato di solito in I/O.
Dx
ranking (Tensor)
Il numero di dimensioni in un Tensor. Ad esempio, una scala ha il ranking 0, un vettore il grado 1 e una matrice il ranking 2.
Da non confondere con il ranking (ordinanza).
directory principale
La directory specificata per l'hosting di sottodirectory del checkpoint TensorFlow e dei file degli eventi di più modelli.
D
SavedModel
Il formato consigliato per salvare e recuperare i modelli TensorFlow. SaveModel è un formato di serializzazione recuperabile in base al linguaggio, che consente a sistemi e strumenti di livello superiore di produrre, utilizzare e trasformare modelli TensorFlow.
Per ulteriori dettagli, consulta il capitolo di salvataggio e ripristino nella Guida al programma di TensorFlow.
Economico
Un oggetto TensorFlow responsabile del salvataggio dei checkpoint del modello.
shard
Una divisione logica del set di addestramento o del modello. In genere, alcuni processi creano shard dividendo gli esempi o i parametri in blocchi di dimensioni uguali (di solito). Ogni shard viene quindi assegnato a un'altra macchina.
Il partizionamento orizzontale di un modello è chiamato parallelism dei modelli; l'hard-data dei dati è chiamata parallelism dei dati.
riepilogo
In TensorFlow, un valore o un insieme di valori calcolati in un determinato passaggio, solitamente utilizzati per monitorare le metriche del modello durante l'addestramento.
M
Tensore
La struttura dei dati principale nei programmi TensorFlow. I Tensor sono strutture di dati N-dimensionali (dove N potrebbe essere molto grande), più comunemente scalari, vettori o matrici. Gli elementi di un Tensor possono contenere valori interi, con virgola mobile o stringa.
TensorBoard
La dashboard che mostra i riepiloghi salvati durante l'esecuzione di uno o più programmi TensorFlow.
TensorFlow
Una piattaforma di machine learning su larga scala e distribuita. Il termine si riferisce anche al livello API di base nello stack TensorFlow, che supporta il calcolo generale dei grafici Dataflow.
Sebbene TensorFlow sia utilizzato principalmente per il machine learning, puoi utilizzare TensorFlow anche per attività non ML che richiedono un calcolo numerico utilizzando i grafici a Dataflow.
Parco giochi TensorFlow
Un programma che mostra in che modo i diversi iperparametri influenzano l'addestramento del modello (principalmente rete neurale). Vai all'indirizzo http://playground.tensorflow.org per sperimentare TensorFlow Playground.
Pubblicazione TensorFlow
Una piattaforma per il deployment di modelli addestrati in produzione.
Tensor Processing Unit (TPU)
Un circuito integrato specifico per l'applicazione (ASIC) che ottimizza le prestazioni dei carichi di lavoro di machine learning. Questi ASIC vengono implementati come più chip TPU su un dispositivo TPU.
Ranking Tensor
Vedi ranking (Tensor).
Forma Tensor
Il numero di elementi contenuti in un elemento Tensor in varie dimensioni. Ad esempio, un Tensor di [5, 10] ha la forma 5 in una dimensione e 10 in un'altra.
Dimensioni Tensor
Il numero totale di scalari contenuti in un elemento Tensor. Ad esempio, un [5, 10] Tensor ha una dimensione 50.
Esempio: tf.
Un buffer di protocollo standard per la descrizione dei dati di input per l'addestramento o l'inferenza del modello di machine learning.
Tf.keras
Un'implementazione di Keras integrata in TensorFlow.
TPU
Abbreviazione di Tensor Processing Unit.
Chip TPU
Un acceleratore di algebra lineare programmabile con memoria a larghezza di banda elevata su chip ottimizzata per carichi di lavoro di machine learning. Il deployment di più chip TPU viene eseguito su un dispositivo TPU.
Dispositivo TPU
Una scheda a circuito stampato (PCB) con più chip TPU, interfacce di rete a larghezza di banda elevata e hardware di raffreddamento del sistema.
Master TPU
Il processo di coordinamento centrale in esecuzione su una macchina host che invia e riceve dati, risultati, programmi, prestazioni e informazioni sullo stato del sistema ai lavoratori TPU. Il master TPU gestisce anche la configurazione e l'arresto dei dispositivi TPU.
Nodo TPU
Una risorsa TPU su Google Cloud Platform con un tipo di TPU specifico. Il nodo TPU si connette alla rete VPC da una rete VPC peer. I nodi TPU sono una risorsa definita nell'API Cloud TPU.
pod di TPU
Una configurazione specifica dei dispositivi TPU in un data center di Google. Tutti i dispositivi in un pod TPU sono connessi tra loro tramite una rete dedicata ad alta velocità. Un pod TPU è la configurazione più ampia di dispositivi TPU disponibili per una versione TPU specifica.
Risorsa TPU
Un'entità TPU su Google Cloud Platform che crei, gestisci o utilizzi. Ad esempio, i nodi TPU e i tipi di TPU sono risorse TPU.
sezione TPU
Una sezione TPU è una parte frazionaria dei dispositivi TPU in un pod TPU. Tutti i dispositivi in una sezione TPU sono connessi tra loro tramite una rete dedicata ad alta velocità.
Tipo di TPU
Una configurazione di uno o più dispositivi TPU con una versione hardware TPU specifica. Selezioni un tipo di TPU quando crei un nodo TPU su Google Cloud Platform. Ad esempio, un tipo v2-8
TPU è un singolo dispositivo TPU v2 con 8 core. Un tipo TPU v3-2048
ha 256 dispositivi TPU v3 in rete e un totale di 2048 core. I tipi di TPU sono una risorsa definita nell'API Cloud TPU.
Worker TPU
Un processo che viene eseguito su una macchina host ed esegue programmi di machine learning sui dispositivi TPU.