このページでは、TensorFlow 用語集の用語について説明します。すべての用語集の用語については、こちらをクリックしてください。
C
Cloud TPU
Google Cloud Platform で機械学習ワークロードを高速化するために設計された専用のハードウェア アクセラレータ。
D
Dataset API(tf.data)
データを読み取って機械学習アルゴリズムが必要とする形式に変換するための高レベルな TensorFlow API。tf.data.Dataset
オブジェクトは要素のシーケンスを表し、各要素には 1 つ以上のテンソルが含まれます。tf.data.Iterator
オブジェクトは、Dataset
の要素へのアクセスを提供します。
Dataset API の詳細については、TensorFlow プログラマー ガイドの tf.data: Build TensorFlow input pipeline をご覧ください。
デバイス
TensorFlow セッションを実行できるハードウェアのカテゴリ。CPU、GPU、TPU などがあります。
E
積極的実行
オペレーションが直ちに実行される TensorFlow プログラミング環境。一方、グラフ実行で呼び出されたオペレーションは、明示的に評価されるまで実行されません。積極的実行は、ほとんどのプログラミング言語のコードとよく似た命令型インターフェースです。一般に、積極的実行プログラムはグラフ実行プログラムよりもはるかにデバッグが簡単です。
Estimator
非推奨の TensorFlow API。Estimator ではなく tf.keras を使用します。
F
特徴エンジニアリング
次のステップを含むプロセス
- モデルのトレーニングでどの特徴が有用かを判断する。
- データセットの元データを特徴の効率的なバージョンに変換する。
たとえば、temperature
が有用な機能であると判断できます。その後、バケット化を試して、さまざまな temperature
範囲からモデルが学習できる内容を最適化できます。
特徴量エンジニアリングは、特徴抽出と呼ばれることもあります。
機能仕様
tf.Example プロトコル バッファから features データを抽出するために必要な情報について説明します。tf.Example プロトコル バッファはデータのコンテナなので、次のものを指定する必要があります。
- 抽出するデータ(特徴のキー)
- データ型(float、int など)
- 長さ(固定または可変)
G
グラフ
TensorFlow の演算仕様。グラフ内のノードはオペレーションを表します。エッジは方向を持ち、別のオペレーションへのオペランドとしてオペレーション(テンソル)の結果を渡すことを表します。TensorBoard を使用してグラフを可視化します。
グラフの実行
TensorFlow プログラミング環境で、まずプログラムがグラフを作成し、次にそのグラフの全部または一部を実行します。グラフ実行は、TensorFlow 1.x のデフォルトの実行モードです。
積極的実行とは対照的です。
L
Layers API(tf.layers)
ディープ ニューラル ネットワークをレイヤの構成として構築するための TensorFlow API。Layers API を使用すると、次のようなさまざまなタイプのレイヤを構築できます。
tf.layers.Dense
完全に接続されたレイヤの場合tf.layers.Conv2D
: 畳み込みレイヤ
Layers API は、Keras レイヤの API 規則に従います。つまり、接頭辞が異なるほか、Layers API のすべての関数には、Keras Layers API の関数の名前と同じ名前と署名が存在します。
M
指標
関心のある統計。
目標は、機械学習システムが最適化を試みる指標です。
×
ノード(TensorFlow グラフ)
TensorFlow のグラフの演算。
O
オペレーション(op)
TensorFlow では、Tensor の作成、操作、破棄を行うプロシージャがあります。たとえば、行列乗算は 2 つのテンソルを入力として受け取り、1 つのテンソルを出力として生成する演算です。
点
パラメータ サーバー(PS)
分散設定でモデルのパラメータを追跡するジョブ。
Q
キュー
キューのデータ構造を実装する TensorFlow Operation。通常、I/O で使用されます。
(右)
ランク(テンソル)
Tensor 内の次元数。たとえば、スカラーのランクは 0、ベクトルのランクは 1、行列のランクは 2 です。
ランク(順位)と混同しないようにしてください。
ルート ディレクトリ
TensorFlow チェックポイントのサブディレクトリと、複数のモデルのイベント ファイルをホストするためのディレクトリ。
S
SavedModel
TensorFlow モデルの保存と復元に推奨される形式。SavedModel は、言語に依存せず、復元可能なシリアル化形式であり、高レベルのシステムやツールで TensorFlow モデルを生成、消費、変換できます。
詳細については、TensorFlow プログラマー ガイドの保存と復元の章をご覧ください。
割安便
モデル チェックポイントの保存を行う TensorFlow オブジェクト。
概要
TensorFlow では、特定のステップで計算される値(値のセット)。通常は、トレーニング中にモデル指標を追跡するために使用されます。
火
Tensor
TensorFlow プログラムの主なデータ構造。テンソルは N 次元のデータ構造(N はきわめて大きい)であり、最も一般的なスカラー、ベクトル、行列などです。テンソル要素の要素は、整数値、浮動小数点値、または文字列値を保持できます。
TensorBoard
1 つ以上の TensorFlow プログラムの実行中に保存されたサマリーを表示するダッシュボード。
TensorFlow
分散型の大規模な機械学習プラットフォーム。この用語は、Dataflow グラフの一般的な計算をサポートする、TensorFlow スタックのベース API レイヤも指します。
TensorFlow は主に機械学習に使用されますが、Dataflow グラフを使用して数値計算を必要とする ML 以外のタスクにも TensorFlow を使用できます。
TensorFlow Playground
さまざまなハイパーパラメータがモデル(主にニューラル ネットワーク)トレーニングにどのように影響するかを可視化するプログラム。TensorFlow プレイグラウンドをテストするには、 http://playground.tensorflow.org にアクセスしてください。
TensorFlow Serving
トレーニング済みモデルを本番環境にデプロイするためのプラットフォーム。
TPU(Tensor Processing Unit)
機械学習ワークロードのパフォーマンスを最適化するアプリケーション固有の集積回路(ASIC)。これらの ASIC は、複数の TPU チップとして TPU デバイスにデプロイされています。
テンソル ランク
ランク(テンソル)をご覧ください。
テンソルの形状
さまざまなディメンションの Tensor に含まれる要素の数。 たとえば、[5, 10] テンソルの形状は、ある次元では 5、別の次元では 10 となります。
テンソルのサイズ
Tensor に含まれるスカラーの総数。たとえば、[5, 10] テンソルのサイズは 50 です。
tf.Example
機械学習モデルのトレーニングまたは推論の入力データを記述する標準の プロトコル バッファ。
tf.keras
TensorFlow に統合された Keras の実装。
TPU
TPU チップ
機械学習ワークロード用に最適化されたプログラム可能な線形代数アクセラレータ。オンチップの高帯域幅メモリを備えています。複数の TPU チップが TPU デバイスにデプロイされています。
TPU デバイス
複数の TPU チップ、高帯域幅ネットワーク インターフェース、システム冷却ハードウェアを備えたプリント回路基板(PCB)。
TPU マスター
TPU ワーカーに対してデータ、結果、プログラム、パフォーマンス、システムのヘルス情報を送受信するホストマシンで実行される中央調整プロセス。TPU マスターは、TPU デバイスのセットアップとシャットダウンも管理します。
TPU ノード
特定の TPU タイプの Google Cloud Platform の TPU リソース。TPU ノードは、ピア VPC ネットワークから VPC ネットワークに接続します。TPU ノードは Cloud TPU API で定義されるリソースです。
TPU Pod
Google データセンターの TPU デバイスの特定の構成。TPU Pod 内のすべてのデバイスは、専用の高速ネットワークを介して相互に接続されています。TPU Pod は、特定の TPU バージョンで使用できる TPU デバイスの最大構成です。
TPU リソース
作成、管理、または使用する Google Cloud Platform 上の TPU エンティティ。たとえば、TPU ノードと TPU タイプは TPU リソースです。
TPU スライス
TPU スライスは、TPU Pod の TPU デバイスの一部の一部です。TPU スライス内のすべてのデバイスは、専用の高速ネットワークを介して相互に接続されています。
TPU タイプ
特定の TPU ハードウェア バージョンによる 1 つ以上の TPU デバイスの構成。Google Cloud Platform で TPU ノードを作成するときに、TPU タイプを選択します。たとえば、v2-8
TPU タイプは、8 コアからなる単一の TPU v2 デバイスです。v3-2048
TPU タイプには、256 個のネットワーク TPU v3 デバイスと合計 2,048 コアが含まれます。TPU タイプは、Cloud TPU API で定義されたリソースです。
TPU ワーカー
ホストマシンで実行され、TPU デバイスで機械学習プログラムを実行するプロセス。