Glossário de machine learning: TensorFlow

Nesta página, você encontra os termos do glossário do TensorFlow. Para ver todos os termos do glossário, clique aqui.

B

inferência em lote

#TensorFlow
#GoogleCloud

O processo de inferência de previsões em vários exemplos não rotulados divididos em subconjuntos menores ("lotes").

A inferência em lote pode aproveitar os recursos de carregamento em paralelo dos ícones de acelerador. Ou seja, vários aceleradores podem inferir previsões simultaneamente em diferentes lotes de exemplos não rotulados, aumentando drasticamente o número de inferências por segundo.

C

Cloud TPU

#TensorFlow
#GoogleCloud

um acelerador de hardware especializado projetado para acelerar cargas de trabalho de machine learning no Google Cloud.

D

API Dataset (tf.data)

#TensorFlow

Uma API do TensorFlow de alto nível para ler dados e transformá-los em um formato exigido por um algoritmo de machine learning. Um objeto tf.data.Dataset representa uma sequência de elementos, em que cada elemento contém um ou mais Tensors. Um objeto tf.data.Iterator fornece acesso aos elementos de um Dataset.

Para detalhes sobre a API Dataset, consulte tf.data: como criar pipelines de entrada do TensorFlow no Guia do programador do TensorFlow.

dispositivo

#TensorFlow
#GoogleCloud

Um termo sobrecarregado com estas duas possíveis definições:

  1. Uma categoria de hardware capaz de executar uma sessão do TensorFlow, incluindo CPUs, GPUs e TPUs.
  2. Ao treinar um modelo de ML em ícones de acelerador (GPUs ou TPUs), a parte do sistema que realmente manipula tensores e embeddings. O dispositivo é executado em chips aceleradores. Por outro lado, o host geralmente é executado em uma CPU.

E

execução rápida

#TensorFlow

Um ambiente de programação do TensorFlow em que as operations são executadas imediatamente. Por outro lado, as operações chamadas na execução de gráfico não são executadas até que sejam explicitamente avaliadas. A execução antecipada é uma interface imperativa, muito semelhante ao código na maioria das linguagens de programação. Programas de execução rápida geralmente são muito mais fáceis de depurar do que programas de execução de gráficos.

Estimator

#TensorFlow

Uma API obsoleta do TensorFlow. Use tf.keras em vez de Estimators.

F

e engenharia de atributos.

#fundamentals
#TensorFlow

Um processo que envolve as seguintes etapas:

  1. Determinar quais recursos podem ser úteis no treinamento de um modelo.
  2. converter dados brutos do conjunto de dados em versões eficientes desses atributos;

Por exemplo, você pode determinar que temperature pode ser um recurso útil. Em seguida, teste o agrupamento por classes para otimizar o que o modelo pode aprender com diferentes intervalos temperature.

A engenharia de atributos às vezes é chamada de extração de atributos ou recursos.

especificação de atributos

#TensorFlow

Descreve as informações necessárias para extrair dados de features do buffer de protocolo tf.Example. Como o buffer de protocolo tf.Example é apenas um contêiner de dados, é preciso especificar:

  • Os dados a serem extraídos (ou seja, as chaves dos atributos)
  • O tipo de dados (por exemplo, float ou int)
  • O comprimento (fixo ou variável)

G

gráfico

#TensorFlow

No TensorFlow, uma especificação de computação. Os nós no gráfico representam as operações. As bordas são direcionadas e representam a transmissão do resultado de uma operação (um Tensor) como um operando para outra operação. Use o TensorBoard para visualizar um gráfico.

execução de grafo

#TensorFlow

Um ambiente de programação do TensorFlow em que o programa constrói primeiro um gráfico e depois executa esse gráfico inteiro ou parte dele. A execução de grafos é o modo de execução padrão no TensorFlow 1.x.

Contraste com a execução antecipada.

H

anfitrião

#TensorFlow
#GoogleCloud

Ao treinar um modelo de ML em ícones de acelerador (GPUs ou TPUs), a parte do sistema que controla o seguinte:

  • O fluxo geral do código.
  • A extração e transformação do pipeline de entrada.

O host normalmente é executado em uma CPU, não em um chip acelerador. O dispositivo manipula tensores nos ícones do acelerador.

L

API Layers (tf.layers)

#TensorFlow

Uma API do TensorFlow para criar uma rede neural profunda como uma composição de camadas. A API Layers permite criar diferentes tipos de camadas, como:

A API Layers segue as convenções da API de camadas Keras. Ou seja, além de um prefixo diferente, todas as funções na API Layers têm os mesmos nomes e assinaturas que as contrapartes na API Keras layers.

M

malha

#TensorFlow
#GoogleCloud

Na programação paralela de ML, um termo associado à atribuição de dados e modelo a ícones de TPU e à definição de como esses valores serão fragmentados ou replicados.

Malha é um termo sobrecarregado que pode significar um dos seguintes:

  • Um layout físico de chips de TPU.
  • Uma construção lógica abstrata para mapear os dados e o modelo para os chips de TPU.

Em ambos os casos, a malha é especificada como uma shape.

metric

#TensorFlow

Uma estatística importante para você.

Um objetivo é uma métrica que um sistema de machine learning tenta otimizar.

N

nó (gráfico do TensorFlow)

#TensorFlow

Uma operação em um gráfico do TensorFlow

O

operação (op)

#TensorFlow

No TensorFlow, qualquer procedimento que crie, manipule ou destrua um Tensor (link em inglês). Por exemplo, a multiplicação de matrizes é uma operação que usa dois tensores como entrada e gera um deles como saída.

P

Servidor de parâmetros (PS, na sigla em inglês)

#TensorFlow

Um job que monitora os parâmetros de um modelo em uma configuração distribuída.

P

fila

#TensorFlow

Uma operação do TensorFlow que implementa uma estrutura de dados de fila. Geralmente usado em E/S.

R

Classificação (Tensor)

#TensorFlow

O número de dimensões em um Tensor. Por exemplo, um escalar tem classificação 0, um vetor tem classificação 1 e uma matriz tem classificação 2.

Não confunda com classificação (ordinalidade).

diretório raiz

#TensorFlow

O diretório especificado para hospedar subdiretórios do checkpoint do TensorFlow e arquivos de eventos de vários modelos.

S

SavedModel

#TensorFlow

O formato recomendado para salvar e recuperar modelos do TensorFlow. O SavedModel é um formato de serialização recuperável de linguagem neutra, que permite que sistemas e ferramentas de nível superior produzam, consumam e transformem modelos do TensorFlow.

Consulte o capítulo Como salvar e restaurar no Guia do programador do TensorFlow para detalhes completos.

Econômico

#TensorFlow

Um objeto do TensorFlow responsável por salvar os checkpoints do modelo.

fragmento

#TensorFlow
#GoogleCloud

Uma divisão lógica do conjunto de treinamento ou do modelo. Normalmente, algum processo cria fragmentos dividindo os exemplos ou parâmetros em blocos com o mesmo tamanho. Cada fragmento é atribuído a uma máquina diferente.

A fragmentação de um modelo é chamada de paralelismo de modelos e a fragmentação de dados é chamada de paralelismo de dados.

resumo

#TensorFlow

No TensorFlow, um valor ou conjunto de valores calculados em uma etapa específica, geralmente usado para rastrear métricas do modelo durante o treinamento.

T

Tensor

#TensorFlow

A estrutura de dados primária em programas do TensorFlow. Os tensores são estruturas de dados N-dimensionais (em que N pode ser muito grandes), geralmente escalares, vetores ou matrizes. Os elementos de um tensor podem conter valores inteiros, de ponto flutuante ou de string.

TensorBoard

#TensorFlow

O painel que exibe os resumos salvos durante a execução de um ou mais programas do TensorFlow.

TensorFlow

#TensorFlow

Uma plataforma de machine learning distribuída e em grande escala. O termo também se refere à camada de API básica na pilha do TensorFlow, que é compatível com computação geral em gráficos de fluxo de dados.

O TensorFlow é usado principalmente para machine learning, mas é possível usá-lo para tarefas não relacionadas a ML que exigem computação numérica com gráficos do Dataflow.

TensorFlow Playground

#TensorFlow

Um programa que visualiza como diferentes hiperparâmetros influenciam o treinamento do modelo (principalmente rede neural). Acesse http://playground.tensorflow.org para testar o TensorFlow Playground.

TensorFlow Serving

#TensorFlow

Uma plataforma para implantar modelos treinados em produção.

Unidade de Processamento de Tensor (TPU)

#TensorFlow
#GoogleCloud

Um circuito integrado específico de aplicativo (ASIC, na sigla em inglês) que otimiza o desempenho de cargas de trabalho de machine learning. Esses ASICs são implantados como vários chips de TPU em um dispositivo TPU.

Classificação do tensor

#TensorFlow

Consulte rank (Tensor).

Forma do tensor

#TensorFlow

O número de elementos que um Tensor contém em várias dimensões. Por exemplo, um tensor [5, 10] tem uma forma de 5 em uma dimensão e de 10 em outra.

Tamanho do tensor

#TensorFlow

O número total de escalares que um Tensor contém. Por exemplo, um tensor [5, 10] tem um tamanho de 50.

tf.Example

#TensorFlow

Um buffer de protocolo padrão para descrever dados de entrada para treinamento ou inferência de modelos de machine learning.

tf.keras

#TensorFlow

Uma implementação do Keras integrada ao TensorFlow.

TPU

#TensorFlow
#GoogleCloud

Abreviação de Unidade de Processamento de Tensor.

Ícone de TPU

#TensorFlow
#GoogleCloud

Um acelerador de álgebra linear programável com memória de alta largura de banda on-chip otimizado para cargas de trabalho de machine learning. Vários chips de TPU são implantados em um dispositivo TPU.

Dispositivo TPU

#TensorFlow
#GoogleCloud

Uma placa de circuito impresso (PCB, na sigla em inglês) com vários chips de TPU, interfaces de rede de alta largura de banda e hardware de resfriamento do sistema.

Mestre da TPU

#TensorFlow
#GoogleCloud

O processo de coordenação central executado em uma máquina host que envia e recebe dados, resultados, programas, desempenho e informações de integridade do sistema para os workers de TPU. O mestre da TPU também gerencia a configuração e o encerramento dos dispositivos TPU.

Nó da TPU

#TensorFlow
#GoogleCloud

Um recurso de TPU no Google Cloud com um tipo de TPU específico. O nó da TPU se conecta à rede VPC por uma rede VPC com peering. Os nós da TPU são um recurso definido na API Cloud TPU.

Pod de TPU

#TensorFlow
#GoogleCloud

Uma configuração específica de dispositivos TPU em um data center do Google. Todos os dispositivos em um Pod de TPU são conectados entre si por uma rede dedicada de alta velocidade. Um Pod de TPU é a maior configuração de dispositivos de TPU disponíveis para uma versão específica de TPU.

Recurso de TPU

#TensorFlow
#GoogleCloud

Uma entidade de TPU no Google Cloud que você cria, gerencia ou consome. Por exemplo, nós da TPU e tipos de TPU são recursos de TPU.

Fração de TPU

#TensorFlow
#GoogleCloud

Uma fração de TPU é uma parte fracionária dos dispositivos de TPU em um Pod de TPU. Todos os dispositivos em uma fração de TPU são conectados entre si por meio de uma rede dedicada de alta velocidade.

Tipo de TPU

#TensorFlow
#GoogleCloud

Uma configuração de um ou mais dispositivos de TPU com uma versão específica de hardware de TPU. Você seleciona um tipo de TPU ao criar um nó de TPU no Google Cloud. Por exemplo, um tipo de TPU v2-8 é um único dispositivo TPU v2 com 8 núcleos. Um tipo de TPU v3-2048 tem 256 dispositivos TPU v3 em rede e um total de 2.048 núcleos. Os tipos de TPU são um recurso definido na API Cloud TPU.

Worker da TPU

#TensorFlow
#GoogleCloud

Um processo que é executado em uma máquina host e executa programas de machine learning em dispositivos TPU.