機械学習用語集: Google Cloud

このページでは、Google Cloud の用語集の用語について説明します。すべての用語集の用語については、こちらをクリックしてください。

A

アクセラレータ チップ

#GoogleCloud

ディープ ラーニング アルゴリズムに必要な鍵計算を行う特別なハードウェア コンポーネントのカテゴリ。

アクセラレータ チップ(略して「アクセラレータ」)を使用すると、汎用 CPU と比較して、トレーニング タスクと推論タスクの速度と効率を大幅に向上できます。ニューラル ネットワークや、これに似た計算負荷の高いタスクをトレーニングする場合に最適です。

アクセラレータ チップの例:

  • ディープ ラーニング専用のハードウェアを備えた Google の Tensor Processing Unit(TPU)。
  • NVIDIA の GPU はもともとグラフィック処理用に設計されていますが、並列処理を可能にするように設計されているため、処理速度が大幅に向上します。

B

バッチ推論

#TensorFlow
#GoogleCloud

複数のラベルの付いていないサンプルを予測した、より小さなサブセット(「バッチ」)に分割されたプロセス。

バッチ推論では、アクセラレータ チップの並列化機能を利用できます。つまり、複数のアクセラレータが、ラベルの付いていないサンプルの異なるバッチの予測を同時に推測できる場合、1 秒あたりの推論数が劇的に増加します。

C

Cloud TPU

#TensorFlow
#GoogleCloud

Google Cloud Platform で機械学習ワークロードを高速化するために設計された専用のハードウェア アクセラレータ。

D.

device

#TensorFlow
#GoogleCloud

次の 2 つの定義で定義される過負荷の用語。

  1. TensorFlow セッションを実行できるハードウェアのカテゴリ。CPU、GPU、TPU などがあります。
  2. アクセラレータ チップ(GPU または TPU)で ML モデルをトレーニングする場合、テンソルエンベディングを実際に操作するシステムの部分です。デバイスはアクセラレータ チップ上で動作します。一方、ホストは通常、CPU 上で動作します。

H

ホスト

#TensorFlow
#GoogleCloud

アクセラレータ チップ(GPU または TPU)で ML モデルをトレーニングする場合、システムの両方が次の部分を制御します。

  • コードの全体的なフロー。
  • 入力パイプラインの抽出と変換。

ホストは通常、アクセラレータ チップではなく CPU で実行されます。デバイスは、アクセラレータ チップのテンソルを操作します。

M

メッシュ

#TensorFlow
#GoogleCloud

ML 並列プログラミングで、データとモデルを TPU チップに割り当て、これらの値をシャーディングまたは複製する方法を定義する用語。

メッシュは過負荷の用語で、次のいずれかを意味する可能性があります。

  • TPU チップの物理レイアウト。
  • データとモデルを TPU チップにマッピングするための抽象論理構造。

いずれの場合も、シェイプとしてメッシュを指定します。

S

シャード

#TensorFlow
#GoogleCloud

トレーニング セットまたはモデルの論理分割。通常、一部のプロセスでは、またはパラメータを(通常は)同じサイズのチャンクに分割してシャードを作成します。シャードはそれぞれ、異なるマシンに割り当てられます。

モデルのシャーディングはモデルの並列処理と呼ばれ、データのシャーディングはデータ並列処理と呼ばれます。

TPU(Tensor Processing Unit)

#TensorFlow
#GoogleCloud

機械学習ワークロードのパフォーマンスを最適化するアプリケーション固有の集積回路(ASIC)。これらの ASIC は、複数の TPU チップとして TPU デバイスにデプロイされています。

TPU

#TensorFlow
#GoogleCloud

Tensor Processing Unit の略。

TPU チップ

#TensorFlow
#GoogleCloud

機械学習ワークロード用に最適化されたプログラム可能な線形代数アクセラレータ。オンチップの高帯域幅メモリを備えています。複数の TPU チップが TPU デバイスにデプロイされています。

TPU デバイス

#TensorFlow
#GoogleCloud

複数の TPU チップ、高帯域幅ネットワーク インターフェース、システム冷却ハードウェアを備えたプリント回路基板(PCB)。

TPU マスター

#TensorFlow
#GoogleCloud

TPU ワーカーに対してデータ、結果、プログラム、パフォーマンス、システムのヘルス情報を送受信するホストマシンで実行される中央調整プロセス。TPU マスターは、TPU デバイスのセットアップとシャットダウンも管理します。

TPU ノード

#TensorFlow
#GoogleCloud

特定の TPU タイプの Google Cloud Platform の TPU リソース。TPU ノードは、ピア VPC ネットワークから VPC ネットワークに接続します。TPU ノードは Cloud TPU API で定義されるリソースです。

TPU Pod

#TensorFlow
#GoogleCloud

Google データセンターの TPU デバイスの特定の構成。TPU Pod 内のすべてのデバイスは、専用の高速ネットワークを介して相互に接続されています。TPU Pod は、特定の TPU バージョンで使用できる TPU デバイスの最大構成です。

TPU リソース

#TensorFlow
#GoogleCloud

作成、管理、または使用する Google Cloud Platform 上の TPU エンティティ。たとえば、TPU ノードTPU タイプは TPU リソースです。

TPU スライス

#TensorFlow
#GoogleCloud

TPU スライスは、TPU PodTPU デバイスの一部の一部です。TPU スライス内のすべてのデバイスは、専用の高速ネットワークを介して相互に接続されています。

TPU タイプ

#TensorFlow
#GoogleCloud

特定の TPU ハードウェア バージョンによる 1 つ以上の TPU デバイスの構成。Google Cloud Platform で TPU ノードを作成するときに、TPU タイプを選択します。たとえば、v2-8 TPU タイプは、8 コアからなる単一の TPU v2 デバイスです。v3-2048 TPU タイプには、256 個のネットワーク TPU v3 デバイスと合計 2,048 コアが含まれます。TPU タイプは、Cloud TPU API で定義されたリソースです。

TPU ワーカー

#TensorFlow
#GoogleCloud

ホストマシンで実行され、TPU デバイスで機械学習プログラムを実行するプロセス。