Glosario de aprendizaje automático: Google Cloud

Esta página contiene los términos del glosario de Google Cloud. Para ver todos los términos del glosario, haz clic aquí.

A

chip acelerador

#GoogleCloud

Es una categoría de componentes de hardware especializados diseñados para realizar cálculos de claves necesarios para los algoritmos de aprendizaje profundo.

Los chips de aceleradores (o solo aceleradores, para abreviar) pueden aumentar significativamente la velocidad y eficiencia de las tareas de inferencia y entrenamiento en comparación con una CPU de uso general. Son ideales para entrenar redes neuronales y tareas similares con mucha carga de procesamiento.

Estos son algunos ejemplos de chips aceleradores:

  • Unidades de procesamiento tensorial (TPU) de Google con hardware dedicado para el aprendizaje profundo
  • Las GPU de NVIDIA que, aunque están diseñadas inicialmente para procesamiento de gráficos, están diseñadas para habilitar el procesamiento paralelo, lo que puede aumentar significativamente la velocidad de procesamiento.

B

inferencia por lotes

#TensorFlow
#GoogleCloud

Es el proceso de inferir predicciones en varios ejemplos sin etiqueta divididos en subconjuntos más pequeños (“lotes”).

La inferencia por lotes puede aprovechar las funciones de paralelización de los chips aceleradores. Es decir, varios aceleradores pueden inferir predicciones de forma simultánea en lotes de ejemplos sin etiquetar, lo que aumenta drásticamente la cantidad de inferencias por segundo.

C

Cloud TPU

#TensorFlow
#GoogleCloud

Un acelerador de hardware especializado diseñado para acelerar las cargas de trabajo de aprendizaje automático en Google Cloud.

D

dispositivo

#TensorFlow
#GoogleCloud

Término sobrecargado con las siguientes dos definiciones posibles:

  1. Categoría de hardware que puede ejecutar una sesión de TensorFlow y que incluye CPU, GPU y TPU.
  2. Cuando se entrena un modelo de AA con chips aceleradores (GPU o TPU), la parte del sistema que realmente manipula los tensores y las incorporaciones. El dispositivo se ejecuta en chips aceleradores. Por el contrario, el host suele ejecutarse en una CPU.

H

host

#TensorFlow
#GoogleCloud

Cuando se entrena un modelo de AA en chips aceleradores (GPU o TPU), es la parte del sistema que controla los siguientes aspectos:

  • El flujo general del código.
  • La extracción y transformación de la canalización de entrada.

Por lo general, el host se ejecuta en una CPU, no en un chip acelerador; el dispositivo manipula los tensores de los chips del acelerador.

M

malla

#TensorFlow
#GoogleCloud

En la programación paralela del AA, es un término asociado con la asignación de los datos y el modelo a los chips TPU y la definición de cómo se fragmentarán o replicarán estos valores.

Malla es un término sobrecargado que puede significar cualquiera de las siguientes opciones:

  • Un diseño físico de chips TPU.
  • Una construcción lógica abstracta para asignar los datos y el modelo a los chips de TPU.

En cualquier caso, una malla se especifica como una forma.

S

fragmento

#TensorFlow
#GoogleCloud

Es una división lógica del conjunto de entrenamiento o del modelo. Por lo general, algunos procesos crean fragmentos dividiendo los ejemplos o los parámetros en fragmentos (por lo general) del mismo tamaño. Luego, cada fragmento se asigna a una máquina diferente.

La fragmentación de un modelo se denomina paralelismo de modelos; la fragmentación de datos se denomina paralelismo de datos.

T

Unidad de procesamiento tensorial (TPU)

#TensorFlow
#GoogleCloud

Un circuito integrado específico de la aplicación (ASIC) que optimiza el rendimiento de las cargas de trabajo de aprendizaje automático. Estos ASIC se implementan como varios chips TPU en un dispositivo de TPU.

TPU

#TensorFlow
#GoogleCloud

Abreviatura de unidad de procesamiento tensorial.

chip TPU

#TensorFlow
#GoogleCloud

Acelerador de álgebra lineal programable con memoria de gran ancho de banda en chip que está optimizado para cargas de trabajo de aprendizaje automático. Varios chips TPU se implementan en un dispositivo de TPU.

Dispositivo de TPU

#TensorFlow
#GoogleCloud

Una placa de circuito impreso (PCB) con varios chips TPU, interfaces de red de ancho de banda alto y hardware de enfriamiento del sistema.

TPU principal

#TensorFlow
#GoogleCloud

Es el proceso de coordinación central que se ejecuta en una máquina anfitrión que envía y recibe datos, resultados, programas, información del estado del sistema y rendimiento a los trabajadores de TPU. La instancia principal de TPU también administra la configuración y el apagado de los dispositivos de TPU.

Nodo TPU

#TensorFlow
#GoogleCloud

Un recurso de TPU en Google Cloud con un tipo de TPU específico. El nodo TPU se conecta a tu red de VPC desde una red de VPC de intercambio de tráfico. Los nodos TPU son un recurso definido en la API de Cloud TPU.

pod de TPU

#TensorFlow
#GoogleCloud

Es una configuración específica de dispositivos de TPU en un centro de datos de Google. Todos los dispositivos en un pod de TPU están conectados entre sí a través de una red dedicada de alta velocidad. Un pod de TPU es la configuración más grande de dispositivos de TPU disponibles para una versión de TPU específica.

Recurso de TPU

#TensorFlow
#GoogleCloud

Una entidad de TPU en Google Cloud que creas, administras o consumes. Por ejemplo, los nodos TPU y los tipos de TPU son recursos de TPU.

Porción de TPU

#TensorFlow
#GoogleCloud

Una porción de TPU es una parte fraccionaria de los dispositivos de TPU en un Pod de TPU. Todos los dispositivos en una porción de TPU están conectados entre sí a través de una red dedicada de alta velocidad.

Tipo de TPU

#TensorFlow
#GoogleCloud

Es una configuración de uno o más dispositivos de TPU con una versión específica de hardware de TPU. El tipo de TPU se selecciona cuando creas un nodo TPU en Google Cloud. Por ejemplo, un tipo de TPU v2-8 es un dispositivo único de TPU v2 con 8 núcleos. Un tipo de TPU v3-2048 tiene 256 dispositivos TPU v3 conectados en red y un total de 2,048 núcleos. Los tipos de TPU son un recurso definido en la API de Cloud TPU.

trabajador TPU

#TensorFlow
#GoogleCloud

Un proceso que se ejecuta en una máquina anfitrión y ejecuta programas de aprendizaje automático en dispositivos de TPU.