Nesta página, há termos do glossário do TensorFlow. Para ver todos os termos do glossário, clique aqui.
C
Cloud TPU
Um acelerador de hardware especializado projetado para acelerar as cargas de trabalho de machine learning no Google Cloud Platform.
D
API Dataset (tf.data)
Uma API de alto nível do TensorFlow para ler dados e
transformá-los em um formulário exigido por um algoritmo de machine learning.
Um objeto tf.data.Dataset
representa uma sequência de elementos, em que cada elemento contém um ou mais Tensores. Um objeto tf.data.Iterator
fornece acesso aos elementos de uma Dataset
.
Para detalhes sobre a API Dataset, consulte tf.data: criar pipelines de entrada do TensorFlow no Guia do Programador do TensorFlow.
dispositivo
Uma categoria de hardware que pode executar uma sessão do TensorFlow, incluindo CPUs, GPUs e TPUs.
E
execução rápida
Um ambiente de programação do TensorFlow em que operações são executadas imediatamente. Por outro lado, as operações chamadas na execução de gráfico não são executadas até que sejam explicitamente avaliadas. A execução rápida é uma interface imperativa, assim como o código na maioria das linguagens de programação. Em geral, programas mais rápidos são muito mais fáceis de depurar do que os programas de execução gráfica.
Estimator
Uma API descontinuada do TensorFlow Use tf.keras em vez de Estimators.
F
engenharia de atributos
Um processo que envolve as seguintes etapas:
- Determinar quais recursos pode ser útil no treinamento de um modelo.
- Converter dados brutos do conjunto de dados em versões eficientes desses recursos.
Por exemplo, é possível determinar que temperature
pode ser um recurso
útil. Depois, tente usar o criação de buckets
para otimizar o que o modelo pode aprender com diferentes intervalos temperature
.
Às vezes, a engenharia de atributos é chamada de extração de atributos.
especificação do recurso
Descreve as informações necessárias para extrair dados features do buffer de protocolo tf.Example. Como o buffer de protocolo tf.Example é apenas um contêiner de dados, é preciso especificar o seguinte:
- os dados a serem extraídos (ou seja, as chaves dos atributos)
- o tipo de dados (por exemplo, flutuante ou int)
- O comprimento (fixo ou variável)
G
gráfico
No TensorFlow, uma especificação computacional. Os nós no gráfico representam operações. As bordas são direcionadas e representam o resultado de uma operação (um Tensor) como um operando para outra operação. Use o TensorBoard para ver um gráfico.
execução do gráfico
Um ambiente de programação do TensorFlow em que o programa primeiro constrói um gráfico e, em seguida, executa todo ou parte desse gráfico. A execução de gráfico é o modo de execução padrão no TensorFlow 1.x.
Contraste com a execução rápida.
L
API Camadas (tf.layers)
Uma API do TensorFlow para criar uma rede neural profunda como uma composição de camadas. A API Camadas permite criar diferentes tipos de camadas, como:
tf.layers.Dense
para uma camada totalmente conectada.tf.layers.Conv2D
para uma camada convolucional.
A API Camadas segue as convenções da API de camadas Keras. Ou seja, além de um prefixo diferente, todas as funções na API Layer têm os mesmos nomes e assinaturas que as dos equivalentes na API Keras layers.
M
métrica
Uma estatística importante para você.
Um objetivo é uma métrica que um sistema de machine learning tenta otimizar.
N
nó (gráfico do TensorFlow)
Uma operação em um gráfico do TensorFlow.
O
operação (op)
No TensorFlow, qualquer procedimento que crie, manipule ou destrua um Tensor. Por exemplo, um multiplicador de matriz é uma operação que usa dois tensores como entrada e gera um tensor como saída.
P
Servidor de parâmetros (PS, na sigla em inglês)
Um job que monitora os parâmetros do modelo em uma configuração distribuída.
P
fila
Uma operação do TensorFlow que implementa uma estrutura de dados de fila. Normalmente, usados em E/S.
R
classificação (Tensor)
O número de dimensões em um Tensor. Por exemplo, um escalar tem classificação 0, um vetor tem classificação 1 e uma matriz tem classificação 2.
Não confunda com a classificação (ordem).
diretório raiz
O diretório especificado para hospedar subdiretórios dos checkpoints do TensorFlow e arquivos de eventos de vários modelos.
S
SavedModel
O formato recomendado para salvar e recuperar modelos do TensorFlow. O SavedModel é um formato de serialização recuperável e de linguagem neutra que permite sistemas e ferramentas de nível superior para produzir, consumir e transformar modelos do TensorFlow.
Para mais detalhes, consulte o capítulo Salvar e restaurar no Guia do programador do TensorFlow.
Econômico
Um objeto do TensorFlow responsável por salvar checkpoints do modelo.
resumo
No TensorFlow, um valor ou conjunto de valores calculados em uma determinada etapa, geralmente usado para rastrear métricas de modelo durante o treinamento.
T
Tensor
Estrutura de dados principal nos programas do TensorFlow. Tensores são estruturas de dados de dimensão N (em que N pode ser muito grande), geralmente escalares, vetores ou matrizes. Os elementos de um tensor podem conter valores inteiros, de ponto flutuante ou string.
TensorBoard
O painel que mostra os resumos salvos durante a execução de um ou mais programas do TensorFlow.
TensorFlow
Uma plataforma de machine learning distribuída e em grande escala. O termo também se refere à camada de API base na pilha do TensorFlow, que é compatível com a computação geral em gráficos do Dataflow.
O TensorFlow é usado principalmente para machine learning, mas também é possível usar o TensorFlow para tarefas não ML que exigem computação numérica usando gráficos do Dataflow.
TensorFlow Playground
Um programa que visualiza como diferentes hiperparâmetros influenciam o treinamento de modelos (principalmente rede neural). Acesse http://playground.tensorflow.org para testar o TensorFlow Playground.
TensorFlow Serving
Uma plataforma para implantar modelos treinados em produção.
Unidade de Processamento de Tensor (TPU)
Um circuito integrado específico para aplicativos (ASIC, na sigla em inglês) que otimiza o desempenho das cargas de trabalho de machine learning. Esses ASICs são implantados como vários chips TPU em um dispositivo TPU.
Classificação do tensor
Consulte rank (Tensor).
Forma do tensor
O número de elementos que um Tensor contém em várias dimensões. Por exemplo, um tensor [5, 10] tem uma forma de 5 em uma dimensão e 10 em outra.
Tamanho do tensor
O número total de escalares que um Tensor contém. Por exemplo, um tensor [5, 10] tem um tamanho de 50.
tf.Example
Um buffer de protocolo padrão para descrever dados de entrada para treinamento ou inferência de modelos de machine learning.
tf.keras
Uma implementação de Keras integrada ao TensorFlow.
TPU
Abreviação de Unidade de Processamento de Tensor.
Ícone de TPU
Um acelerador de álgebra linear programável com memória de alta largura de banda integrada que é otimizada para cargas de trabalho de machine learning. Vários chips de TPU são implantados em um dispositivo TPU.
Dispositivo TPU
Uma placa de circuito impresso (PCB, na sigla em inglês) com vários chips TPU, interfaces de rede de alta largura de banda e hardware de resfriamento do sistema.
Mestre de TPU
O processo de coordenação central em execução em uma máquina host que envia e recebe dados, resultados, programas, desempenho e informações de integridade do sistema para os workers da TPU. O mestre da TPU também gerencia a configuração e o encerramento dos dispositivos de TPU.
Nó da TPU
Um recurso de TPU no Google Cloud Platform com um tipo de TPU específico. O nó da TPU se conecta à rede VPC de uma rede VPC com peering. Os nós da TPU são um recurso definido na API Cloud TPU.
Pod de TPU
Uma configuração específica de dispositivos TPU em um data center do Google. Todos os dispositivos em um pod de TPU são conectados entre si por meio de uma rede dedicada de alta velocidade. Um pod de TPU é a maior configuração de dispositivos de TPU disponível para uma versão de TPU específica.
Recurso de TPU
uma entidade de TPU no Google Cloud Platform que você cria, gerencia ou consome. Por exemplo, nós de TPU e tipos de TPU são recursos de TPU.
Fatia da TPU
Uma fração da TPU é uma parte fracionária dos dispositivos TPU em um pod de TPU. Todos os dispositivos em uma fração da TPU estão conectados entre si por meio de uma rede dedicada de alta velocidade.
Tipo de TPU
Configuração de um ou mais dispositivos de TPU com uma versão específica de hardware de TPU. Selecione um tipo de TPU ao criar um nó de TPU no Google Cloud Platform. Por exemplo, um tipo de TPU v2-8
é um único dispositivo TPU v2 com oito núcleos. Um tipo de TPU v3-2048
tem 256
dispositivos de TPU v3 em rede e um total de 2.048 núcleos. Os tipos de TPU são um recurso definido na API Cloud TPU.
Worker da TPU
Um processo executado em uma máquina host e programas de machine learning em dispositivos TPU.