Esta página contiene términos del glosario de Google Cloud. Para ver todos los términos del glosario, haz clic aquí.
A
chip de acelerador
Es una categoría de componentes de hardware especializados diseñados para realizar los cálculos clave necesarios para los algoritmos de aprendizaje profundo.
Los chips de acelerador (o simplemente aceleradores) pueden aumentar de manera significativa la velocidad y eficiencia de las tareas de inferencia y entrenamiento en comparación con una CPU de uso general. Son ideales para entrenar redes neuronales y tareas similares de procesamiento intensivo.
Estos son algunos ejemplos de chips de acelerador:
- Unidades de procesamiento tensorial de Google (TPU) con hardware dedicado para el aprendizaje profundo.
- Las GPU de NVIDIA, que en un principio están diseñadas para el procesamiento de gráficos, están diseñadas para habilitar el procesamiento paralelo, lo que puede aumentar significativamente la velocidad de procesamiento.
B
inferencia por lotes
Proceso de inferir predicciones en varios ejemplos sin etiqueta divididos en subconjuntos más pequeños (“lotes”).
La inferencia por lotes puede aprovechar las funciones de paralelización de los chips de acelerador. Es decir, varios aceleradores pueden inferir simultáneamente predicciones en diferentes lotes de ejemplos sin etiquetar, lo que aumenta de forma drástica la cantidad de inferencias por segundo.
C
Cloud TPU
Acelerador de hardware especializado diseñado para acelerar las cargas de trabajo de aprendizaje automático en Google Cloud Platform.
D.
dispositivo
Un término sobrecargado con las siguientes dos definiciones posibles:
- Categoría de hardware que puede ejecutar una sesión de TensorFlow y que incluye CPU, GPU y TPU.
- Cuando se entrena un modelo de AA sobre chips de acelerador (GPU o TPU), es la parte del sistema que realmente manipula tensores y incorporaciones. El dispositivo funciona con chips de acelerador. Por el contrario, el host suele ejecutarse en una CPU.
H
organizador
Cuando entrenas un modelo de AA sobre chips de acelerador (GPU o TPU), es la parte del sistema que controla lo siguiente:
- El flujo general del código
- Extracción y transformación de la canalización de entrada.
Por lo general, el host se ejecuta en una CPU, no en un chip de aceleración. El dispositivo manipula tensores en los chips de acelerador.
M
malla
En la programación paralela del AA, un término asociado con la asignación de los datos y el modelo a los chips TPU, y la definición de cómo se fragmentarán o replicarán estos valores.
Malla es un término sobrecargado que puede significar cualquiera de las siguientes opciones:
- Un diseño físico de chips TPU.
- Una construcción lógica abstracta para asignar los datos y el modelo a los chips de TPU.
En cualquier caso, una malla se especifica como una forma.
S
fragmento
División lógica del conjunto de entrenamiento o del modelo. Por lo general, algún proceso crea fragmentos mediante la división de los ejemplos o parámetros en fragmentos de igual tamaño. Luego, cada fragmento se asigna a una máquina diferente.
La fragmentación de un modelo se denomina paralelismo de modelos; la fragmentación de datos se llama paralelismo de datos.
T
Unidad de procesamiento tensorial (TPU)
Un circuito integrado específico de la aplicación (ASIC) que optimiza el rendimiento de las cargas de trabajo de aprendizaje automático. Estos ASIC se implementan como varios chips de TPU en un dispositivo de TPU.
TPU
Abreviatura de unidad de procesamiento tensorial.
Chip de TPU
Un acelerador de álgebra lineal programable con memoria de gran ancho de banda en el chip que está optimizado para cargas de trabajo de aprendizaje automático. Se implementan varios chips de TPU en un dispositivo de TPU.
Dispositivo de TPU
Una placa de circuito impreso (PCB) con varios chips de TPU, interfaces de red de alto ancho de banda y hardware de enfriamiento del sistema
Instancia principal de TPU
Proceso de coordinación central que se ejecuta en una máquina anfitrión, que envía y recibe datos, resultados, programas, rendimiento y datos de estado del sistema a los trabajadores de la TPU. La instancia principal de TPU también administra la configuración y el cierre de los dispositivos de TPU.
Nodo TPU
Un recurso TPU en Google Cloud Platform con un tipo de TPU específico El nodo TPU se conecta a tu red de VPC desde una red de VPC de intercambio de tráfico. Los nodos TPU son un recurso definido en la API de Cloud TPU.
pod de TPU
Una configuración específica de dispositivos de TPU en un centro de datos de Google Todos los dispositivos en un pod de TPU están conectados entre sí en una red dedicada de alta velocidad. Un pod de TPU es la configuración más grande de dispositivos de TPU disponibles para una versión de TPU específica.
Recurso de TPU
Una entidad TPU en Google Cloud Platform que creas, administras o consumes. Por ejemplo, los nodos de TPU y los tipos de TPU son recursos de TPU.
Segmento de TPU
Una porción de TPU es una parte fraccionaria de los dispositivos de TPU en un Pod de TPU. Todos los dispositivos en una porción de TPU están conectados entre sí en una red dedicada de alta velocidad.
Tipo de TPU
Configuración de uno o más dispositivos de TPU con una versión de hardware de TPU específica. Debes seleccionar un tipo de TPU cuando creas un nodo TPU en Google Cloud Platform. Por ejemplo, un tipo de TPU v2-8
es un dispositivo de TPU v2 único con 8 núcleos. Un tipo de TPU v3-2048
tiene 256 dispositivos TPU v3 conectados en red y un total de 2048 núcleos. Los tipos de TPU son un recurso definido en la API de Cloud TPU.
Trabajador TPU
Proceso que se ejecuta en una máquina anfitrión y ejecuta programas de aprendizaje automático en dispositivos de TPU.