本頁麵包含 Google Cloud 詞彙表字詞。如需所有詞彙詞彙,請按這裡。
A
加速器方塊
一種特殊硬體元件,可用於執行深度學習演算法所需的重要計算作業。
與一般用途 CPU 相比,加速器方塊 (或簡稱「加速器」) 可以大幅提升訓練和推論工作的執行速度和效率。這類模型非常適合用於訓練類神經網路,以及須耗用大量運算資源的工作。
加速器方塊範例如下:
- Google 的 Tensor Processing Unit (TPU),搭配專屬硬體進行深度學習。
- NVIDIA 的 GPU (最初專為圖形處理而設計) 專為處理平行處理作業而設計,因此大幅提升處理速度。
B
批次推論
將推論推論未加上標籤的範例具有小區段 (<細項>) 的預測程序。
批次推論可以運用加速器方塊的平行處理功能。也就是說,多個加速器可以同時預測不同未加標籤範例的預測結果,大幅提高每秒推論次數。
C
Cloud TPU
一種特殊的硬體加速器,用於加速 Google Cloud Platform 上的機器學習工作負載。
D
裝置
具有以下兩種可能定義的超載字詞:
- 執行 TensorFlow 工作階段的硬體類別,包括 CPU、GPU 和 TPU。
- 使用加速器晶片 (GPU 或 TPU) 訓練機器學習模型時,系統實際上會處理張量和嵌入的系統部分。裝置在加速器晶片上執行。相較之下,主機通常會在 CPU 上執行。
H
主人
使用加速器方塊 (GPU 或 TPU) 訓練機器學習模型時,控制系統的以下部分:
- 程式碼的整體流程。
- 輸入管道的擷取和轉換方式。
主機通常在 CPU 上執行,而非加速器晶片;裝置會操控加速器晶片上的張量。
M
網格
在機器學習平行程式設計中,指的是將資料和模型指派給 TPU 晶片的相關字詞,以及定義這些值的資料分割或複製方式。
網格是一種超載字詞,這可能代表下列其中一項:
- TPU 晶片的實體版面配置。
- 一種抽象邏輯結構,可將資料和模型對應至 TPU 方塊。
無論是哪一種情況,網格都會指定為形狀。
六
資料分割
訓練集或模型的邏輯部門。一般而言,某些程序會將範例或參數分割為 (通常為相同大小的區塊) 來建立資料分割。然後將每個資料分割指派給不同的機器。
資料分割模型稱為模型平行處理,資料分割資料稱為資料平行處理。
二
Tensor Processing Unit (TPU)
應用程式專屬的整合電路 (ASIC),可將機器學習工作負載的效能最佳化。這些 ASIC 是在 TPU 裝置上部署為多個 TPU 晶片。
TPU
TPU 晶片
可程式化的代數加速器,經過最佳化的高頻寬頻寬記憶體會針對機器學習工作負載進行最佳化。部署於多個 TPU 裝置上的 TPU 晶片。
TPU 裝置
具有多個 TPU 晶片、高頻寬網路介面和系統冷氣硬體的印刷電路板 (PCB)。
TPU 主要執行個體
在主機機器執行的中央協調程序,可以傳送資料、結果、程式、效能和系統健康狀態資訊至 TPU 工作站。TPU 主要執行個體也會管理 TPU 裝置的設定與關機作業。
TPU 節點
Google Cloud Platform 上的 TPU 資源,其中包含特定 TPU 類型。TPU 節點會從對等互連虛擬私有雲網路連線至虛擬私有雲網路。TPU 節點是在 Cloud TPU API 中定義的資源。
TPU Pod
Google 資料中心的TPU 裝置特定設定。TPU Pod 中的所有裝置都透過專屬高速網路相互連線。TPU Pod 是特定 TPU 版本可用的 TPU 裝置最大的設定。
TPU 資源
您在 Google Cloud Platform 中建立、管理或取用的 TPU 實體。舉例來說,TPU node 和 TPU type 都是 TPU 資源。
TPU 配量
TPU 配量是 TPU Pod 中的 TPU 裝置的一部分。TPU 配量中的所有裝置皆透過專用高速網路相互連線。
TPU 類型
一或多個 TPU 裝置,其中包含特定 TPU 硬體版本。在 Google Cloud Platform 中建立 TPU 節點時,請選取 TPU 類型。舉例來說,v2-8
TPU 類型是具有 8 個核心的單一 TPU v2 裝置。v3-2048
TPU 類型有 256 個網路的 TPU v3 裝置,以及 2048 個核心。TPU 類型是 Cloud TPU API 中定義的資源。
TPU 工作站
在主機電腦上執行的程序,並在 TPU 裝置上執行機器學習程式。