Glossário de machine learning: Google Cloud

Esta página contém os termos do glossário do Google Cloud. Para todos os termos do glossário, clique aqui.

A

ícone do acelerador

#GoogleCloud

Uma categoria de componentes de hardware especializados projetados para executar os principais cálculos necessários para algoritmos de aprendizado profundo.

Os ícones de acelerador (ou apenas aceleradores, na sigla em inglês) podem aumentar significativamente a velocidade e eficiência das tarefas de treinamento e inferência em comparação com uma CPU de uso geral. Elas são ideais para treinar redes neurais e tarefas similares de computação intensiva.

Exemplos de ícones de aceleradores incluem:

  • as unidades de processamento de tensor (TPUs) do Google, com hardware dedicado para aprendizado profundo.
  • Embora as GPUs NVIDIA sejam projetadas inicialmente para processamento gráfico, elas permitem o processamento paralelo, o que pode aumentar significativamente a velocidade de processamento.

B

inferência em lote

#TensorFlow
#GoogleCloud

O processo de inferência de previsões em vários exemplos sem rótulos dividido em subconjuntos menores ("lotes").

A inferência em lote pode aproveitar os recursos de carregamento em paralelo dos ícones de acelerador. Ou seja, vários aceleradores podem inferir simultaneamente previsões em lotes diferentes de exemplos sem rótulos, aumentando drasticamente o número de inferências por segundo.

C

Cloud TPU

#TensorFlow
#GoogleCloud

Um acelerador de hardware especializado projetado para acelerar cargas de trabalho de machine learning no Google Cloud Platform.

D)

dispositivo

#TensorFlow
#GoogleCloud

Um termo sobrecarregado com as duas definições a seguir:

  1. Uma categoria de hardware que pode executar uma sessão do TensorFlow, incluindo CPUs, GPUs e TPUs.
  2. Ao treinar um modelo de ML em ícones de acelerador (GPUs ou TPUs), a parte do sistema que realmente manipula tensores e embeddings. O dispositivo é executado em chips aceleradores. Por outro lado, o host normalmente é executado em uma CPU.

H

anfitrião

#TensorFlow
#GoogleCloud

Ao treinar um modelo de ML em ícones de acelerador (GPUs ou TPUs), a parte do sistema que controla os seguintes itens:

  • O fluxo geral do código.
  • Extração e transformação do pipeline de entrada.

O host normalmente é executado em uma CPU, não em um chip de acelerador. O dispositivo manipula tensores nos chips de acelerador.

M

malha

#TensorFlow
#GoogleCloud

Na programação paralela de ML, um termo associado à atribuição de dados e modelo a chips de TPU e à definição de como esses valores serão fragmentados ou replicados.

"Malha" é um termo sobrecarregado que pode significar:

  • Um layout físico de chips da TPU.
  • Uma construção lógica abstrata para mapear os dados e o modelo para os chips de TPU.

Em ambos os casos, uma malha é especificada como uma forma.

S

fragmento

#TensorFlow
#GoogleCloud

Uma divisão lógica do conjunto de treinamento ou do modelo. Normalmente, alguns processos criam fragmentos dividindo os exemplos ou os parâmetros em blocos de tamanho igual (geralmente). Cada fragmento é atribuído a uma máquina diferente.

A fragmentação de um modelo é chamada de paralelismo de modelo. A fragmentação de dados é chamada de paralelismo de dados.

T

Unidade de Processamento de Tensor (TPU)

#TensorFlow
#GoogleCloud

Um circuito integrado específico de aplicativos (ASIC, na sigla em inglês) que otimiza o desempenho das cargas de trabalho de machine learning. Esses ASICs são implantados como vários ícones de TPU em um dispositivo TPU.

TPU

#TensorFlow
#GoogleCloud

Abreviação de Unidade de Processamento de Tensor.

Chip TPU

#TensorFlow
#GoogleCloud

Um acelerador de álgebra linear programável com memória on-line de alta largura de banda otimizada para cargas de trabalho de machine learning. Vários chips de TPU são implantados em um dispositivo TPU.

Dispositivo TPU

#TensorFlow
#GoogleCloud

Uma placa de circuito impresso (PCB, na sigla em inglês) com vários ícones de TPU, interfaces de rede de alta largura de banda e hardware de refrigeração do sistema.

Mestre da TPU

#TensorFlow
#GoogleCloud

O processo de coordenação central executado em uma máquina host que envia e recebe dados, resultados, programas, desempenho e informações de integridade do sistema para os workers da TPU. O mestre da TPU também gerencia a configuração e o encerramento dos dispositivos da TPU.

Nó da TPU

#TensorFlow
#GoogleCloud

um recurso de TPU no Google Cloud Platform com um tipo de TPU específico; O nó da TPU se conecta à rede VPC de uma rede VPC com peering. Os nós da TPU são um recurso definido na API Cloud TPU.

Pod de TPU

#TensorFlow
#GoogleCloud

Uma configuração específica de dispositivos TPU em um data center do Google. Todos os dispositivos em um pod de TPU são conectados entre si por meio de uma rede dedicada de alta velocidade. Um pod de TPU é a maior configuração de dispositivos de TPU disponível para uma versão específica de TPU.

Recurso da TPU

#TensorFlow
#GoogleCloud

Uma entidade de TPU no Google Cloud Platform que você cria, gerencia ou consome. Por exemplo, nós de TPU e tipos de TPU são recursos da TPU.

Fatia de TPU

#TensorFlow
#GoogleCloud

Uma fração de TPU é uma parte fracionária dos dispositivos TPU em um pod da TPU. Todos os dispositivos em uma fração de TPU estão conectados uns aos outros em uma rede dedicada de alta velocidade.

Tipo de TPU

#TensorFlow
#GoogleCloud

Uma configuração de um ou mais dispositivos TPU com uma versão específica de hardware da TPU. Selecione um tipo de TPU ao criar um nó de TPU no Google Cloud Platform. Por exemplo, um tipo de TPU v2-8 é um dispositivo único de TPU v2 com 8 núcleos. Um tipo de TPU v3-2048 tem 256 dispositivos TPU v3 em rede e um total de 2.048 núcleos. Os tipos de TPU são um recurso definido na API Cloud TPU.

Worker TPU

#TensorFlow
#GoogleCloud

Um processo executado em uma máquina host e com programas de machine learning em dispositivos TPU.