Glossario del machine learning: Google Cloud

Questa pagina contiene i termini del glossario di Google Cloud. Per tutti i termini del glossario, fai clic qui.

A

chip di acceleratore

#GoogleCloud

Una categoria di componenti hardware specializzati progettata per eseguire calcoli chiave necessari per gli algoritmi di deep learning.

I chip dell'acceleratore (o semplicemente acceleratori) possono aumentare significativamente la velocità e l'efficienza delle attività di addestramento e inferenza rispetto a una CPU per uso generico. Sono ideali per l'addestramento di reti neurali e attività simili ad alta intensità di calcolo.

Esempi di chip dell'acceleratore includono:

  • Le unità di elaborazione Tensor di Google (TPU) con hardware dedicato per il deep learning.
  • Le GPU NVIDIA che, sebbene inizialmente progettate per l'elaborazione grafica, sono progettate per consentire l'elaborazione in parallelo, che può aumentare notevolmente la velocità di elaborazione.

B

inferenza batch

#TensorFlow
#GoogleCloud

il processo di inferenza di previsioni su più esempi senza etichetta suddivisi in sottoinsiemi più piccoli ("batch").

L'inferenza batch può sfruttare le funzionalità di parallelismo dei chip dell'acceleratore. In altri termini, più acceleratori possono dedurre simultaneamente le previsioni su gruppi diversi di esempi senza etichetta, aumentando notevolmente il numero di inferenze al secondo.

C

Cloud TPU

#TensorFlow
#GoogleCloud

Un acceleratore hardware specializzato progettato per velocizzare i carichi di lavoro di machine learning in Google Cloud Platform.

D

dispositivo

#TensorFlow
#GoogleCloud

Un termine sovraccarico con le seguenti due definizioni possibili:

  1. Una categoria di hardware in grado di eseguire una sessione TensorFlow, tra cui CPU, GPU e TPU.
  2. Durante l'addestramento di un modello ML su chip di acceleratore (GPU o TPU), la parte del sistema che manipola i tensori e gli incorporamenti. Il dispositivo esegue chip di acceleratore. Al contrario, l'host in genere viene eseguito su una CPU.

H

padrone di casa

#TensorFlow
#GoogleCloud

Durante l'addestramento di un modello ML su chip di acceleratore (GPU o TPU), la parte del sistema che controlla entrambi i seguenti aspetti:

  • Il flusso complessivo del codice.
  • L'estrazione e la trasformazione della pipeline di input.

In genere l'host viene eseguito su una CPU, non su un chip di acceleratore; il dispositivo manipola i tensori sui chip di acceleratore.

L

mesh

#TensorFlow
#GoogleCloud

Nella programmazione parallela del machine learning, un termine associato all'assegnazione di dati e modelli ai chip TPU e che definisce il modo in cui questi valori verranno suddivisi o replicati.

Mesh è un termine sovraccarico che può significare che:

  • Un layout fisico dei chip TPU.
  • Un costrutto logico astratto per mappare i dati e il modello ai chip TPU.

In entrambi i casi, un mesh è specificato come forma.

D

shard

#TensorFlow
#GoogleCloud

Una divisione logica del set di addestramento o del modello. In genere, alcuni processi creano shard dividendo gli esempi o i parametri in blocchi di dimensioni uguali (di solito). Ogni shard viene quindi assegnato a un'altra macchina.

Il partizionamento orizzontale di un modello è chiamato parallelism dei modelli; l'hard-data dei dati è chiamata parallelism dei dati.

M

Tensor Processing Unit (TPU)

#TensorFlow
#GoogleCloud

Un circuito integrato specifico per l'applicazione (ASIC) che ottimizza le prestazioni dei carichi di lavoro di machine learning. Questi ASIC vengono implementati come più chip TPU su un dispositivo TPU.

TPU

#TensorFlow
#GoogleCloud

Abbreviazione di Tensor Processing Unit.

Chip TPU

#TensorFlow
#GoogleCloud

Un acceleratore di algebra lineare programmabile con memoria a larghezza di banda elevata su chip ottimizzata per carichi di lavoro di machine learning. Il deployment di più chip TPU viene eseguito su un dispositivo TPU.

Dispositivo TPU

#TensorFlow
#GoogleCloud

Una scheda a circuito stampato (PCB) con più chip TPU, interfacce di rete a larghezza di banda elevata e hardware di raffreddamento del sistema.

Master TPU

#TensorFlow
#GoogleCloud

Il processo di coordinamento centrale in esecuzione su una macchina host che invia e riceve dati, risultati, programmi, prestazioni e informazioni sullo stato del sistema ai lavoratori TPU. Il master TPU gestisce anche la configurazione e l'arresto dei dispositivi TPU.

Nodo TPU

#TensorFlow
#GoogleCloud

Una risorsa TPU su Google Cloud Platform con un tipo di TPU specifico. Il nodo TPU si connette alla rete VPC da una rete VPC peer. I nodi TPU sono una risorsa definita nell'API Cloud TPU.

pod di TPU

#TensorFlow
#GoogleCloud

Una configurazione specifica dei dispositivi TPU in un data center di Google. Tutti i dispositivi in un pod TPU sono connessi tra loro tramite una rete dedicata ad alta velocità. Un pod TPU è la configurazione più ampia di dispositivi TPU disponibili per una versione TPU specifica.

Risorsa TPU

#TensorFlow
#GoogleCloud

Un'entità TPU su Google Cloud Platform che crei, gestisci o utilizzi. Ad esempio, i nodi TPU e i tipi di TPU sono risorse TPU.

sezione TPU

#TensorFlow
#GoogleCloud

Una sezione TPU è una parte frazionaria dei dispositivi TPU in un pod TPU. Tutti i dispositivi in una sezione TPU sono connessi tra loro tramite una rete dedicata ad alta velocità.

Tipo di TPU

#TensorFlow
#GoogleCloud

Una configurazione di uno o più dispositivi TPU con una versione hardware TPU specifica. Selezioni un tipo di TPU quando crei un nodo TPU su Google Cloud Platform. Ad esempio, un tipo v2-8TPU è un singolo dispositivo TPU v2 con 8 core. Un tipo TPU v3-2048 ha 256 dispositivi TPU v3 in rete e un totale di 2048 core. I tipi di TPU sono una risorsa definita nell'API Cloud TPU.

Worker TPU

#TensorFlow
#GoogleCloud

Un processo che viene eseguito su una macchina host ed esegue programmi di machine learning sui dispositivi TPU.