Glossario del machine learning: TensorFlow

Mantieni tutto organizzato con le raccolte Salva e classifica i contenuti in base alle tue preferenze.

Questa pagina contiene i termini nel glossario di TensorFlow. Per tutti i termini del glossario, fai clic qui.

C

Cloud TPU

#TensorFlow
#GoogleCloud

Un acceleratore hardware specializzato progettato per accelerare i carichi di lavoro di machine learning su Google Cloud Platform.

D

API Dataset (tf.data)

#TensorFlow

Un'API TensorFlow di alto livello per la lettura dei dati e la loro trasformazione in una forma richiesta da un algoritmo di machine learning. Un oggetto tf.data.Dataset rappresenta una sequenza di elementi, in cui ogni elemento contiene uno o più Tensor. Un oggetto tf.data.Iterator fornisce l'accesso agli elementi di un Dataset.

Per maggiori dettagli sull'API Dataset, consulta tf.data: Build TensorFlow input pipelines nella guida del programma TensorFlow.

dispositivo

#TensorFlow

Una categoria di hardware in grado di eseguire una sessione di TensorFlow, tra cui CPU, GPU e TPU.

E

esecuzione impaziente

#TensorFlow

Un ambiente di programmazione TensorFlow in cui vengono eseguite immediatamente le operazioni. Al contrario, le operazioni chiamate nell'esecuzione del grafico non vengono eseguite finché non vengono valutate in modo esplicito. L'esecuzione immediata è un'interfaccia imperativa, molto simile al codice nella maggior parte dei linguaggi di programmazione. I programmi di esecuzione più entusiasti sono in genere molto più semplici di debug rispetto ai programmi di esecuzione dei grafici.

Strumento per la stima

#TensorFlow

Un'API TensorFlow deprecata. Usa tf.keras al posto degli Estimator.

F

feature engineering

#fundamentals
#TensorFlow

Una procedura che prevede i seguenti passaggi:

  1. Determinare quali funzionalità potrebbero essere utili per addestrare un modello.
  2. Conversione dei dati non elaborati dal set di dati in versioni efficienti di queste funzionalità.

Ad esempio, potresti stabilire che temperature potrebbe essere una funzionalità utile. Quindi, puoi sperimentare il bucketing per ottimizzare ciò che il modello può apprendere da diversi intervalli temperature.

La progettazione delle funzionalità è talvolta chiamata estrazione di funzionalità.

specifiche della caratteristica

#TensorFlow

Descrive le informazioni richieste per estrarre i dati di funzionalità dal buffer di protocollo tf.Example. Poiché il buffer di protocollo tf.Example è solo un container per i dati, devi specificare quanto segue:

  • i dati da estrarre (ovvero le chiavi per le funzionalità)
  • Il tipo di dati (ad esempio, floating o int)
  • La lunghezza (fissa o variabile)

G

grafico

#TensorFlow

In TensorFlow, una specifica di calcolo. I nodi nel grafico rappresentano le operazioni. I bordi sono diretti e rappresentano il passaggio di un'operazione (Tensor) come operativo a un'altra operazione. Utilizza TensorBoard per visualizzare un grafico.

esecuzione del grafico

#TensorFlow

Un ambiente di programmazione TensorFlow in cui il programma crea per la prima volta un grafico e poi esegue tutto o parte di quel grafico. L'esecuzione del grafico è la modalità di esecuzione predefinita in TensorFlow 1.x.

Contrasto con l'esecuzione preferita.

S

API Livelli (tf.layer)

#TensorFlow

Un'API TensorFlow per la creazione di una rete neurale profonda come composizione di livelli. L'API Livelli ti consente di creare diversi tipi di livelli, tra cui:

L'API Livelli segue le convenzioni API dei livelli Keras. In altre parole, oltre a un prefisso diverso, tutte le funzioni nell'API Livelli hanno gli stessi nomi e firme delle rispettive controparti nell'API Keras.

M

metrica

#TensorFlow

Una statistica che ti interessa.

Un obiettivo è una metrica che un sistema di machine learning cerca di ottimizzare.

No

nodo (grafico TensorFlow)

#TensorFlow

Un'operazione in un grafico TensorFlow.

O

operazione (op)

#TensorFlow

In TensorFlow, qualsiasi procedura che crea, manipola o distrugge un Tensor. Ad esempio, un moltiplicatore di matrici è un'operazione che prende due Tensor come input e genera un Tensor come output.

R

Server parametri (PS)

#TensorFlow

Un job che tiene traccia dei parametri di un modello in un'impostazione distribuita.

D

queue

#TensorFlow

Un'operazione TensorFlow che implementa una struttura di dati in coda. Solitamente utilizzato in I/O.

R

ranking (Tensor)

#TensorFlow

Il numero di dimensioni in un Tensor. Ad esempio, una scala ha il ranking 0, un vettore ha il ranking 1 e una matrice ha il ranking 2.

Da non confondere con il ranking (ordinalità).

directory radice

#TensorFlow

La directory specificata per l'hosting delle sottodirectory del checkpoint di TensorFlow e dei file di eventi di più modelli.

S

SavedModel

#TensorFlow

Il formato consigliato per salvare e recuperare i modelli TensorFlow. SavedModel è un formato di serializzazione neutrale e recuperabile che consente a sistemi e strumenti di livello superiore di produrre, utilizzare e trasformare modelli TensorFlow.

Per ulteriori dettagli, consulta il capitolo di salvataggio e ripristino nella guida del programma di TensorFlow.

Economico

#TensorFlow

Un oggetto TensorFlow responsabile del salvataggio dei punti di controllo del modello.

riepilogo

#TensorFlow

In TensorFlow, un valore o un insieme di valori calcolati in un determinato passaggio, generalmente utilizzato per monitorare le metriche del modello durante l'addestramento.

T

Tensor

#TensorFlow

La struttura dei dati principali nei programmi TensorFlow. I Tensor sono strutture di dati N-dimensionali (dove N può essere molto grande), più comunemente scalari, vettori o matrici. Gli elementi di un Tensor possono contenere valori interi, in virgola mobile o di stringa.

TensorBoard

#TensorFlow

La dashboard che mostra i riepiloghi salvati durante l'esecuzione di uno o più programmi TensorFlow.

TensorFlow

#TensorFlow

Una piattaforma di machine learning su larga scala e distribuita. Il termine si riferisce anche al livello API di base nello stack TensorFlow, che supporta il calcolo generale dei grafici Dataflow.

Sebbene TensorFlow sia utilizzato principalmente per il machine learning, puoi anche utilizzare TensorFlow per attività non ML che richiedono il calcolo numerico tramite grafici Dataflow.

TensorFlow Playground

#TensorFlow

Un programma che mostra in che modo i diversi iperparametri influenzano l'addestramento del modello (principalmente rete neurale). Vai all'indirizzo http://playground.tensorflow.org per sperimentare con TensorFlow Playground.

Pubblicazione TensorFlow

#TensorFlow

Una piattaforma per il deployment di modelli addestrati in produzione.

Tensor Processing Unit (TPU)

#TensorFlow
#GoogleCloud

Un circuito integrato specifico per le applicazioni (ASIC) che ottimizza le prestazioni dei carichi di lavoro di machine learning. Questi ASIC vengono implementati come più chip TPU su un dispositivo TPU.

Ranking di Tensor

#TensorFlow

Vedi ranking (Tensor).

Forma Tensor

#TensorFlow

Il numero di elementi contenuti in un Tensor in varie dimensioni. Ad esempio, un [5, 10] Tensor ha una forma 5 in una dimensione e 10 in un'altra.

Dimensioni Tensor

#TensorFlow

Il numero totale di scalari contenuti in un Tensor. Ad esempio, [5, 10] ha una dimensione di 50.

Esempio tf.

#TensorFlow

Un buffer di protocollo standard per la descrizione dei dati di input per l'addestramento o l'inferenza del modello di machine learning.

tf.keras

#TensorFlow

Un'implementazione di Keras integrata in TensorFlow.

TPU

#TensorFlow
#GoogleCloud

Abbreviazione per Tensor Processing Unit.

Chip TPU

#TensorFlow
#GoogleCloud

Un acceleratore di algebra lineare programmabile con memoria a larghezza di banda elevata sul chip ottimizzato per carichi di lavoro di machine learning. Il deployment di più chip TPU viene eseguito su un dispositivo TPU.

Dispositivo TPU

#TensorFlow
#GoogleCloud

Un circuito stampato (PCB) con più chip TPU, interfacce di rete ad alta larghezza di banda e hardware di raffreddamento del sistema.

Master TPU

#TensorFlow
#GoogleCloud

Il processo di coordinamento centrale in esecuzione su una macchina host che invia e riceve dati, risultati, programmi, prestazioni e informazioni sullo stato del sistema ai lavoratori TPU. Il master TPU gestisce anche la configurazione e l'arresto dei dispositivi TPU.

Nodo TPU

#TensorFlow
#GoogleCloud

Una risorsa TPU su Google Cloud Platform con un tipo di TPU specifico. Il nodo TPU si connette alla rete VPC da una rete VPC peer. I nodi TPU sono una risorsa definita nell'API Cloud TPU.

pod di TPU

#TensorFlow
#GoogleCloud

Una configurazione specifica dei dispositivi TPU in un data center di Google. Tutti i dispositivi in un pod di TPU sono collegati tra loro tramite una rete ad alta velocità dedicata. Un pod TPU è la più grande configurazione di dispositivi TPU disponibili per una versione TPU specifica.

Risorsa TPU

#TensorFlow
#GoogleCloud

Un'entità TPU su Google Cloud Platform che crei, gestisci o utilizzi. Ad esempio, i nodi TPU e i tipi TPU sono risorse TPU.

Sezione in TPU

#TensorFlow
#GoogleCloud

Una fetta di TPU è una parte frazionaria dei dispositivi TPU in un pod TPU. Tutti i dispositivi in una sezione TPU sono connessi tra loro tramite una rete dedicata ad alta velocità.

Tipo di TPU

#TensorFlow
#GoogleCloud

Una configurazione di uno o più dispositivi TPU con una versione hardware specifica della TPU. Selezioni un tipo di TPU quando crei un nodo TPU su Google Cloud Platform. Ad esempio, un tipo v2-8TPU è un singolo dispositivo TPU v2 con 8 core. Un tipo di TPU v3-2048 ha 256 dispositivi TPU v3 in rete e un totale di 2048 core. I tipi di TPU sono una risorsa definita nell'API Cloud TPU.

Lavoratore TPU

#TensorFlow
#GoogleCloud

Un processo che viene eseguito su una macchina host ed esegue programmi di machine learning su dispositivi TPU.