机器学习术语表:Google Cloud

使用集合让一切井井有条 根据您的偏好保存内容并对其进行分类。

本页面包含 Google Cloud 术语表。如需了解所有术语表,请点击此处

C

Cloud TPU

#TensorFlow
#GoogleCloud

专门用于加速 Google Cloud Platform 上的机器学习工作负载的专用硬件加速器。

T

张量处理单元 (TPU)

#TensorFlow
#GoogleCloud

应用优化集成电路 (ASIC),用于优化机器学习工作负载的性能。这些 ASIC 部署为 TPU 设备上的多个 TPU 芯片

TPU

#TensorFlow
#GoogleCloud

张量处理单元

TPU 芯片

#TensorFlow
#GoogleCloud

一种可编程的线性代数加速器,具有针对机器学习工作负载进行了优化的片上高带宽内存。 一个 TPU 设备上部署了多个 TPU 芯片。

TPU 设备

#TensorFlow
#GoogleCloud

采用多种 TPU 芯片、高带宽网络接口和系统冷却硬件的印刷电路板 (PCB)。

TPU 主实例

#TensorFlow
#GoogleCloud

在主机上运行的中央协调进程,用于向 TPU 工作器发送和接收数据、结果、程序、性能和系统运行状况信息。TPU 主实例还会管理 TPU 设备的设置和关停。

TPU 节点

#TensorFlow
#GoogleCloud

Google Cloud Platform 上具有特定 TPU 类型的 TPU 资源。TPU 节点从对等 VPC 网络连接到您的 VPC 网络。TPU 节点是在 Cloud TPU API 中定义的资源。

TPU Pod

#TensorFlow
#GoogleCloud

Google 数据中心内 TPU 设备的特定配置。TPU pod 中的所有设备均通过专用高速网络相互连接。TPU Pod 是适用于特定 TPU 版本的最大 TPU 设备配置。

TPU 资源

#TensorFlow
#GoogleCloud

您创建、管理或使用 Google Cloud Platform 上的 TPU 实体。例如,TPU 节点TPU 类型就是 TPU 资源。

TPU 切片

#TensorFlow
#GoogleCloud

TPU 切片是 TPU TPUTPU 设备的一小部分。TPU 切片中的所有设备均通过专用高速网络相互连接。

TPU 类型

#TensorFlow
#GoogleCloud

具有特定 TPU 硬件版本的一个或多个 TPU 设备的配置。在 Google Cloud Platform 上创建 TPU 节点时,请选择 TPU 类型。例如,v2-8 TPU 类型是具有 8 个核心的单个 TPU v2 设备。一个 v3-2048 TPU 类型具有 256 个联网 TPU v3 设备,共计 2048 个核心。TPU 类型是在 Cloud TPU API 中定义的资源。

TPU 工作器

#TensorFlow
#GoogleCloud

在主机上运行并在 TPU 设备上执行机器学习程序的过程。