Glosario de aprendizaje automático: TensorFlow

Esta página contiene términos del glosario de TensorFlow. Para ver todos los términos del glosario, haz clic aquí.

B

inferencia por lotes

#TensorFlow
#GoogleCloud

Proceso de inferir predicciones en varios ejemplos sin etiqueta divididos en subconjuntos más pequeños (“lotes”).

La inferencia por lotes puede aprovechar las funciones de paralelización de los chips de acelerador. Es decir, varios aceleradores pueden inferir simultáneamente predicciones en diferentes lotes de ejemplos sin etiquetar, lo que aumenta de forma drástica la cantidad de inferencias por segundo.

C

Cloud TPU

#TensorFlow
#GoogleCloud

Acelerador de hardware especializado diseñado para acelerar las cargas de trabajo de aprendizaje automático en Google Cloud Platform.

D.

API de Dataset (tf.data)

#TensorFlow

Una API de TensorFlow de alto nivel para leer datos y transformarlos en un formato que requiera un algoritmo de aprendizaje automático Un objeto tf.data.Dataset representa una secuencia de elementos en la que cada uno de ellos contiene uno o más tensores. Un objeto tf.data.Iterator proporciona acceso a los elementos de una Dataset.

Para obtener detalles sobre la API del conjunto de datos, consulta tf.data: Compila canalizaciones de entrada de TensorFlow en la Guía para programadores de TensorFlow.

dispositivo

#TensorFlow
#GoogleCloud

Un término sobrecargado con las siguientes dos definiciones posibles:

  1. Categoría de hardware que puede ejecutar una sesión de TensorFlow y que incluye CPU, GPU y TPU.
  2. Cuando se entrena un modelo de AA sobre chips de acelerador (GPU o TPU), es la parte del sistema que realmente manipula tensores y incorporaciones. El dispositivo funciona con chips de acelerador. Por el contrario, el host suele ejecutarse en una CPU.

E

ejecución inmediata

#TensorFlow

Entorno de programación TensorFlow en el que las operaciones se ejecutan de inmediato. Por el contrario, las operaciones llamadas ejecución de grafo no se ejecutan hasta que se evalúen de forma explícita. La ejecución inmediata es una interfaz imperativa, al igual que el código en la mayoría de los lenguajes de programación. En general, los programas de ejecución inmediata son más fáciles de depurar que los programas de ejecución por grafos.

Estimador

#TensorFlow

Una API de TensorFlow obsoleta. Usa tf.keras en lugar de Estimadores.

V

ingeniería de atributos

#fundamentals
#TensorFlow

Un proceso que implica los siguientes pasos:

  1. Determinar qué atributos puede ser útil para entrenar un modelo.
  2. Convertir los datos sin procesar del conjunto de datos en versiones eficientes de esos atributos

Por ejemplo, puedes determinar que temperature podría ser un atributo útil. Luego, puedes experimentar con el agrupamiento para optimizar lo que el modelo puede aprender de diferentes rangos de temperature.

En algunas ocasiones, la ingeniería de atributos se denomina extracción de atributos.

especificación de atributos

#TensorFlow

Describe la información necesaria para extraer datos de atributos del búfer del protocolo tf.Example. Debido a que el búfer del protocolo tf.Example es solo un contenedor de datos, debes especificar lo siguiente:

  • los datos que se deben extraer (es decir, las claves de los atributos)
  • el tipo de datos (por ejemplo, flotante o número entero)
  • La longitud (fija o variable)

G

gráfico

#TensorFlow

En TensorFlow, una especificación de cálculo. Los nodos del gráfico representan operaciones. Las conexiones están orientadas y representan el paso del resultado de una operación (un Tensor) como un operando para otra operación. Usa TensorBoard para visualizar un grafo.

ejecución de grafos

#TensorFlow

Entorno de programación TensorFlow en el que el programa primero construye un gráfico y, luego, ejecuta la totalidad o parte de ese grafo. La ejecución por grafos es el modo de ejecución predeterminado en TensorFlow 1.x.

Compara esto con la ejecución inmediata.

H

organizador

#TensorFlow
#GoogleCloud

Cuando entrenas un modelo de AA sobre chips de acelerador (GPU o TPU), es la parte del sistema que controla lo siguiente:

  • El flujo general del código
  • Extracción y transformación de la canalización de entrada.

Por lo general, el host se ejecuta en una CPU, no en un chip de aceleración. El dispositivo manipula tensores en los chips de acelerador.

L

API de Layers (tf.layers) (Layers API)

#TensorFlow

API de TensorFlow para construir una red neuronal profunda como una composición de capas. La API de capas te permite crear diferentes tipos de capas, por ejemplo:

La API de capas sigue las convenciones de la API de capas de Keras. Es decir, además de un prefijo diferente, todas las funciones de la API de capas tienen los mismos nombres y firmas que sus contrapartes en la API de capas de Keras.

M

malla

#TensorFlow
#GoogleCloud

En la programación paralela del AA, un término asociado con la asignación de los datos y el modelo a los chips TPU, y la definición de cómo se fragmentarán o replicarán estos valores.

Malla es un término sobrecargado que puede significar cualquiera de las siguientes opciones:

  • Un diseño físico de chips TPU.
  • Una construcción lógica abstracta para asignar los datos y el modelo a los chips de TPU.

En cualquier caso, una malla se especifica como una forma.

métrica

#TensorFlow

Una estadística que te interesa

Un objetivo es una métrica que el sistema de aprendizaje automático intenta optimizar.

N

nodo (gráfico de TensorFlow)

#TensorFlow

Una operación en un gráfico de TensorFlow

O

operación (op)

#TensorFlow

En TensorFlow, cualquier procedimiento que crea, manipula o destruye un Tensor. Por ejemplo, una multiplicación de matrices es una operación que toma dos tensores como entrada y genera un tensor como resultado.

P

Servidor de parámetros (PS)

#TensorFlow

Trabajo que realiza un seguimiento de los parámetros de un modelo en un parámetro de configuración distribuida.

Q

cola

#TensorFlow

Operación de TensorFlow que implementa una estructura de datos en cola. Por lo general, se usa en la E/S.

(der.)

rango (tensor)

#TensorFlow

La cantidad de dimensiones en un tensor. Por ejemplo, un escalar tiene rango 0, un vector tiene rango 1 y una matriz tiene rango 2.

No debe confundirse con rango (ordinalidad).

directorio raíz

#TensorFlow

El directorio que especificas para alojar subdirectorios del punto de control de TensorFlow y archivos de eventos de varios modelos.

S

modelo guardado

#TensorFlow

El formato recomendado para guardar y recuperar modelos de TensorFlow. El modelo guardado es un formato de serialización recuperable y neutral con respecto al lenguaje que permite que las herramientas y los sistemas de nivel superior produzcan, consuman y transformen modelos de TensorFlow.

Para obtener información completa, consulta el capítulo Guardar y restablecer en la Guía para programadores de TensorFlow.

Económico

#TensorFlow

Objeto de TensorFlow responsable de guardar puntos de control del modelo.

fragmento

#TensorFlow
#GoogleCloud

División lógica del conjunto de entrenamiento o del modelo. Por lo general, algún proceso crea fragmentos mediante la división de los ejemplos o parámetros en fragmentos de igual tamaño. Luego, cada fragmento se asigna a una máquina diferente.

La fragmentación de un modelo se denomina paralelismo de modelos; la fragmentación de datos se llama paralelismo de datos.

resumen

#TensorFlow

En TensorFlow, valor o conjunto de valores calculados en un paso en particular, que por lo general se usa para realizar un seguimiento de las métricas del modelo durante el entrenamiento.

T

Tensor

#TensorFlow

Estructura de datos principal en los programas de TensorFlow. Los tensores son estructuras de datos de N dimensiones (donde N podría ser muy grande), generalmente escalares, vectores o matrices. Los elementos de un tensor pueden tener valores enteros, de punto flotante o de una string.

TensorBoard

#TensorFlow

El panel que muestra los resúmenes guardados durante la ejecución de uno o más programas de TensorFlow.

TensorFlow

#TensorFlow

Una plataforma de aprendizaje automático distribuida a gran escala. El término también se refiere a la capa base de la API en la pila de TensorFlow, que admite cálculos generales en gráficos de Dataflow.

Aunque TensorFlow se usa principalmente para el aprendizaje automático, también puedes usarlo para tareas que no sean de AA que requieran cálculos numéricos mediante gráficos de Dataflow.

TensorFlow Playground

#TensorFlow

Programa que visualiza cómo diferentes hiperparámetros influyen en el entrenamiento de modelos (principalmente de redes neuronales). Para probar TensorFlow Playground, visita http://playground.tensorflow.org.

TensorFlow Serving

#TensorFlow

Una plataforma para implementar modelos entrenados en producción.

Unidad de procesamiento tensorial (TPU)

#TensorFlow
#GoogleCloud

Un circuito integrado específico de la aplicación (ASIC) que optimiza el rendimiento de las cargas de trabajo de aprendizaje automático. Estos ASIC se implementan como varios chips de TPU en un dispositivo de TPU.

Rango de tensores

#TensorFlow

Consulta rango (tensor).

Forma de tensor (Tensor shape)

#TensorFlow

La cantidad de elementos que contiene un tensor en distintas dimensiones. Por ejemplo, un tensor de [5, 10] tiene una forma de 5 en una dimensión y de 10 en otra.

Tamaño de tensor (Tensor size)

#TensorFlow

La cantidad total de escalares que contiene un tensor. Por ejemplo, un tensor de [5, 10] tiene un tamaño de 50.

tf.Ejemplo

#TensorFlow

Búfer de protocolo estándar que se usa para describir datos de entrada para el entrenamiento o la inferencia de modelos de aprendizaje automático.

tf.keras

#TensorFlow

Implementación de Keras integrada en TensorFlow.

TPU

#TensorFlow
#GoogleCloud

Abreviatura de unidad de procesamiento tensorial.

Chip de TPU

#TensorFlow
#GoogleCloud

Un acelerador de álgebra lineal programable con memoria de gran ancho de banda en el chip que está optimizado para cargas de trabajo de aprendizaje automático. Se implementan varios chips de TPU en un dispositivo de TPU.

Dispositivo de TPU

#TensorFlow
#GoogleCloud

Una placa de circuito impreso (PCB) con varios chips de TPU, interfaces de red de alto ancho de banda y hardware de enfriamiento del sistema

Instancia principal de TPU

#TensorFlow
#GoogleCloud

Proceso de coordinación central que se ejecuta en una máquina anfitrión, que envía y recibe datos, resultados, programas, rendimiento y datos de estado del sistema a los trabajadores de la TPU. La instancia principal de TPU también administra la configuración y el cierre de los dispositivos de TPU.

Nodo TPU

#TensorFlow
#GoogleCloud

Un recurso TPU en Google Cloud Platform con un tipo de TPU específico El nodo TPU se conecta a tu red de VPC desde una red de VPC de intercambio de tráfico. Los nodos TPU son un recurso definido en la API de Cloud TPU.

pod de TPU

#TensorFlow
#GoogleCloud

Una configuración específica de dispositivos de TPU en un centro de datos de Google Todos los dispositivos en un pod de TPU están conectados entre sí en una red dedicada de alta velocidad. Un pod de TPU es la configuración más grande de dispositivos de TPU disponibles para una versión de TPU específica.

Recurso de TPU

#TensorFlow
#GoogleCloud

Una entidad TPU en Google Cloud Platform que creas, administras o consumes. Por ejemplo, los nodos de TPU y los tipos de TPU son recursos de TPU.

Segmento de TPU

#TensorFlow
#GoogleCloud

Una porción de TPU es una parte fraccionaria de los dispositivos de TPU en un Pod de TPU. Todos los dispositivos en una porción de TPU están conectados entre sí en una red dedicada de alta velocidad.

Tipo de TPU

#TensorFlow
#GoogleCloud

Configuración de uno o más dispositivos de TPU con una versión de hardware de TPU específica. Debes seleccionar un tipo de TPU cuando creas un nodo TPU en Google Cloud Platform. Por ejemplo, un tipo de TPU v2-8 es un dispositivo de TPU v2 único con 8 núcleos. Un tipo de TPU v3-2048 tiene 256 dispositivos TPU v3 conectados en red y un total de 2048 núcleos. Los tipos de TPU son un recurso definido en la API de Cloud TPU.

Trabajador TPU

#TensorFlow
#GoogleCloud

Proceso que se ejecuta en una máquina anfitrión y ejecuta programas de aprendizaje automático en dispositivos de TPU.