Glossar für maschinelles Lernen: TensorFlow

Diese Seite enthält TensorFlow-Glossarbegriffe. Alle Glossarbegriffe finden Sie hier.

B

Batchinferenz

#TensorFlow
#GoogleCloud

Das Ableiten von Vorhersagen für mehrere Beispiele ohne Labels, unterteilt in kleinere Untergruppen („Batches“).

Eine Batch-Inferenz kann die Parallelisierungsfeatures von Beschleunigerchips nutzen. Das bedeutet, dass mehrere Beschleuniger gleichzeitig Vorhersagen zu verschiedenen Batches von Beispielen ohne Labels ableiten können, was die Anzahl der Inferenzen pro Sekunde drastisch erhöht.

C

Cloud TPU

#TensorFlow
#GoogleCloud

Ein spezieller Hardwarebeschleuniger, der dazu dient, Arbeitslasten für maschinelles Lernen auf der Google Cloud Platform zu beschleunigen.

D

Dataset API (tf.data)

#TensorFlow

Eine allgemeine TensorFlow-API zum Lesen von Daten und Umwandeln von Daten in eine Form, die ein Algorithmus für maschinelles Lernen benötigt. Ein tf.data.Dataset-Objekt stellt eine Folge von Elementen dar, in der jedes Element einen oder mehrere Tensoren enthält. Ein tf.data.Iterator-Objekt bietet Zugriff auf die Elemente eines Dataset-Elements.

Weitere Informationen zur Dataset API finden Sie im TensorFlow Programmer Guide unter tf.data: Build TensorFlow Input Pipelines.

Gerät

#TensorFlow
#GoogleCloud

Ein überlasteter Begriff mit den folgenden zwei möglichen Definitionen:

  1. Eine Kategorie von Hardware, die eine TensorFlow-Sitzung ausführen kann, einschließlich CPUs, GPUs und TPUs.
  2. Beim Trainieren eines ML-Modells auf Beschleunigerchips (GPUs oder TPUs) handelt es sich um den Teil des Systems, der Tensoren und Einbettungen tatsächlich bearbeitet. Das Gerät wird auf Accelerator-Chips ausgeführt. Im Gegensatz dazu wird der Host normalerweise auf einer CPU ausgeführt.

E

Flüchtige Ausführung

#TensorFlow

Eine TensorFlow-Programmumgebung, in der Vorgänge sofort ausgeführt werden. Im Gegensatz dazu werden Vorgänge, die bei der Diagrammausführung aufgerufen werden, erst ausgeführt, wenn sie explizit ausgewertet wurden. Eine flüchtige Ausführung ist eine imperative Schnittstelle, die dem Code in den meisten Programmiersprachen ähnelt. Komplexere Ausführungsprogramme sind in der Regel weitaus einfacher für die Fehlerbehebung als Graph-Ausführungsprogramme.

Estimator

#TensorFlow

Eine verworfene TensorFlow API. Verwenden Sie tf.keras anstelle von Estimatoren.

F

Feature Engineering

#fundamentals
#TensorFlow

Ein Prozess mit den folgenden Schritten:

  1. Ermitteln, welche Features zum Trainieren eines Modells nützlich sein können.
  2. Rohdaten aus dem Dataset in effiziente Versionen dieser Features umwandeln.

Sie könnten beispielsweise feststellen, dass temperature ein nützliches Feature ist. Anschließend können Sie mit Bucketing experimentieren, um das Modell mit verschiedenen temperature-Bereichen zu optimieren.

Feature Engineering wird manchmal als Featureextraktion bezeichnet.

Featurespezifikation

#TensorFlow

Beschreibt die Informationen, die zum Extrahieren von Feature-Daten aus dem Protokollzwischenspeicher tf.Example erforderlich sind. Da der tf.Example-Zwischenspeicher nur ein Container für Daten ist, müssen Sie Folgendes angeben:

  • Die zu extrahierenden Daten (die Schlüssel für die Features)
  • den Datentyp (z. B. float oder int)
  • Die Länge (fest oder variabel)

G

Grafik

#TensorFlow

In TensorFlow eine Rechenspezifikation. Die Knoten im Diagramm stellen Vorgänge dar. Die Kanten werden ausgerichtet und stellen die Weitergabe des Ergebnisses eines Vorgangs (einen Tensor) als Operand an einen anderen Vorgang dar. Verwenden Sie TensorBoard, um ein Diagramm zu visualisieren.

Graph Execution

#TensorFlow

Eine TensorFlow-Programmumgebung, in der das Programm zuerst eine Grafik erstellt und dann diese Grafik vollständig oder teilweise ausführt. Die Diagrammausführung ist in TensorFlow 1.x der Standardausführungsmodus.

Im Gegensatz zur schnelleren Ausführung:

H

Host

#TensorFlow
#GoogleCloud

Beim Trainieren eines ML-Modells auf Beschleunigerchips (GPUs oder TPUs) der Teil des Systems, der beide der folgenden Bereiche steuert:

  • Der Gesamtablauf des Codes.
  • Extraktion und Transformation der Eingabepipeline.

Der Host wird normalerweise auf einer CPU ausgeführt, nicht auf einem Beschleuniger-Chip. Das Gerät bearbeitet Tensoren auf den Beschleunigerchips.

L

Layers API (tf.layers)

#TensorFlow

Eine TensorFlow API zum Erstellen eines tiefen neuronalen Netzwerks als Zusammensetzung von Ebenen. Mit der Layers API können Sie verschiedene Arten von Ebenen erstellen, z. B.:

Die Layers API entspricht den Konventionen der Keras Layer API. Das bedeutet, dass alle Funktionen in der Layers API bis auf ein anderes Präfix dieselben Namen und Signaturen haben wie ihre Gegenstücke in der Keras Layers API.

M

Mesh-Netzwerk

#TensorFlow
#GoogleCloud

Bei der parallelen Programmierung in ML ein Begriff, der TPU-Chips die Daten und das Modell zuweist und definiert, wie diese Werte fragmentiert oder repliziert werden.

Ein Mesh-Netzwerk ist ein überlasteter Begriff, der Folgendes bedeuten kann:

  • Ein physisches Layout von TPU-Chips.
  • Ein abstraktes logisches Konstrukt für die Zuordnung von Daten und Modell zu den TPU-Chips.

In beiden Fällen wird ein Mesh-Netzwerk als Form angegeben.

Messwert

#TensorFlow

Eine wichtige Statistik.

Ein Ziel ist ein Messwert, den ein System für maschinelles Lernen optimiert.

N

Knoten (TensorFlow-Grafik)

#TensorFlow

Ein Vorgang in einem TensorFlow-Diagramm.

O

Vorgang (op)

#TensorFlow

Bei TensorFlow wird jedes Verfahren, das einen Tensor erstellt, manipuliert oder zerstört. Eine Matrixmultiplikation ist beispielsweise ein Vorgang, bei dem zwei Tensoren als Eingabe verwendet werden und ein Tensor als Ausgabe generiert wird.

P

Parameterserver (PS)

#TensorFlow

Ein Job, der die Parameter eines Modells in einer verteilten Einstellung verfolgt.

F

kuh

#TensorFlow

Ein TensorFlow-Vorgang, der eine Warteschlangendatenstruktur implementiert. Wird normalerweise in der E/A verwendet.

R

Rang (Tensor)

#TensorFlow

Die Anzahl der Dimensionen in einem Tensor. Beispiel: Ein Skalar hat den Rang 0, ein Vektor hat den Rang 1 und eine Matrix hat den Rang 2.

Nicht zu verwechseln mit dem Rang (Ordinalität).

Stammverzeichnis

#TensorFlow

Das Verzeichnis, das Sie für das Hosting von Unterverzeichnissen des TensorFlow-Prüfpunkts und der Ereignisdateien mehrerer Modelle angeben.

S

SavedModel

#TensorFlow

Das empfohlene Format zum Speichern und Wiederherstellen von TensorFlow-Modellen. JWT ist ein sprachneutrales, wiederherstellbares Serialisierungsformat, das es übergeordneten Systemen und Tools ermöglicht, TensorFlow-Modelle zu erstellen, zu nutzen und zu transformieren.

Ausführliche Informationen finden Sie im TensorFlow Programmierer-Leitfaden im Kapitel Speichern und wiederherstellen.

Kostengünstig

#TensorFlow

Ein TensorFlow-Objekt, das für das Speichern von Modell-Prüfpunkten verantwortlich ist.

Shard

#TensorFlow
#GoogleCloud

Eine logische Unterteilung des Trainings-Datasets oder des Modells. In der Regel werden bei einem Prozess Shards erstellt, indem die Beispiele oder Parameter in (in der Regel) gleich große Teile aufgeteilt werden. Jedes Shard wird dann einer anderen Maschine zugewiesen.

Die Fragmentierung eines Modells wird als Modellparallelität und die Fragmentierung von Daten als Datenparallelität bezeichnet.

Zusammenfassung

#TensorFlow

In TensorFlow ein Wert oder eine Gruppe von Werten, die in einem bestimmten Schritt berechnet und normalerweise für das Tracking von Modellmesswerten während des Trainings verwendet werden.

D

Tensor

#TensorFlow

Die primäre Datenstruktur in TensorFlow-Programmen. Tensoren sind n-dimensionale Datenstrukturen, wobei N sehr groß sein kann. In den meisten Fällen sind Skalare, Vektoren oder Matrizen. Die Elemente eines Tensors können Ganzzahl-, Gleitkomma- oder Stringwerte enthalten.

TensorBoard

#TensorFlow

Das Dashboard, in dem die Zusammenfassungen angezeigt werden, die während der Ausführung eines oder mehrerer TensorFlow-Programme gespeichert werden.

TensorFlow

#TensorFlow

Eine umfangreiche, verteilte Machine-Learning-Plattform. Der Begriff bezieht sich auch auf die Basis-API-Ebene im TensorFlow-Stack, der eine allgemeine Berechnung von Dataflow-Diagrammen unterstützt.

TensorFlow wird zwar hauptsächlich für maschinelles Lernen verwendet, aber Sie können TensorFlow auch für Nicht-ML-Aufgaben verwenden, die eine numerische Berechnung mit Dataflow-Grafiken erfordern.

TensorFlow-Playground

#TensorFlow

Ein Programm, das veranschaulicht, wie unterschiedliche Hyperparameter das Modelltraining (hauptsächlich neuronales Netzwerk) beeinflussen. Rufen Sie http://playground.tensorflow.org auf, um mit TensorFlow Playground zu experimentieren.

TensorFlow bereitstellen

#TensorFlow

Eine Plattform zum Bereitstellen trainierter Modelle in der Produktion

Tensor Processing Unit (TPU)

#TensorFlow
#GoogleCloud

Ein anwendungsspezifischer integrierter Kreis (ASIC), der die Leistung von Arbeitslasten für maschinelles Lernen optimiert. Diese ASICs werden als mehrere TPU-Chips auf einem TPU-Gerät bereitgestellt.

Tensor-Rang

#TensorFlow

Weitere Informationen finden Sie unter Rang (Tensor).

Tensor-Form

#TensorFlow

Die Anzahl der Elemente, die ein Tensor in verschiedenen Dimensionen enthält. Ein [5, 10] Tensor hat beispielsweise die Form 5 in einer Dimension und 10 in einer anderen.

Tensor-Größe

#TensorFlow

Die Gesamtzahl der Skalare, die ein Tensor enthält. Beispiel: Ein [5, 10] Tensor hat eine Größe von 50.

tf.Beispiel

#TensorFlow

Ein Standard- Protokollzwischenspeicher zum Beschreiben von Eingabedaten für das Training oder die Inferenz von ML-Modellen.

tf.keras

#TensorFlow

Eine Implementierung von Keras, die in TensorFlow eingebunden ist

TPU

#TensorFlow
#GoogleCloud

Abkürzung für Tensor Processing Unit.

TPU-Chip

#TensorFlow
#GoogleCloud

Ein programmierbarer linearer Algebra-Beschleuniger mit Chip, der hohe Reichweite und hohe Bandbreite bietet, der für ML-Arbeitslasten optimiert ist. Auf einem TPU-Gerät werden mehrere TPU-Chips bereitgestellt.

TPU-Gerät

#TensorFlow
#GoogleCloud

Eine Platine mit mehreren TPU-Chips, Netzwerkschnittstellen mit hoher Bandbreite und Systemkühlungshardware

TPU-Master

#TensorFlow
#GoogleCloud

Der zentrale Koordinierungsprozess, der auf einem Hostcomputer ausgeführt wird, der Daten, Ergebnisse, Programme, Leistung und Systemzustandsinformationen an die TPU-Worker sendet und empfängt. Der TPU-Master verwaltet und verwaltet auch TPU-Geräte.

TPU-Knoten

#TensorFlow
#GoogleCloud

Eine TPU-Ressource auf der Google Cloud Platform mit einem bestimmten TPU-Typ. Der TPU-Knoten stellt über ein Peer-VPC-Netzwerk eine Verbindung zu Ihrem VPC-Netzwerk her. TPU-Knoten sind eine in der Cloud TPU API definierte Ressource.

TPU-Pod

#TensorFlow
#GoogleCloud

Eine bestimmte Konfiguration von TPU-Geräten in einem Google-Rechenzentrum. Alle Geräte in einem TPU-Pod sind über ein dediziertes Hochgeschwindigkeitsnetzwerk miteinander verbunden. Ein TPU-Pod ist die größte Konfiguration der TPU-Geräte, die für eine bestimmte TPU-Version verfügbar sind.

TPU-Ressource

#TensorFlow
#GoogleCloud

Eine TPU-Entität auf der Google Cloud Platform, die Sie erstellen, verwalten oder nutzen. TPU-Knoten und TPU-Typen sind beispielsweise TPU-Ressourcen.

TPU-Slice

#TensorFlow
#GoogleCloud

Ein TPU-Slice ist ein Bruchteil der TPU-Geräte in einem TPU-Pod. Alle Geräte in einem TPU-Slice sind über ein dediziertes Hochgeschwindigkeitsnetzwerk miteinander verbunden.

TPU-Typ

#TensorFlow
#GoogleCloud

Die Konfiguration eines oder mehrerer TPU-Geräte mit einer bestimmten TPU-Hardwareversion. Sie wählen einen TPU-Typ aus, wenn Sie einen TPU-Knoten auf der Google Cloud Platform erstellen. Ein v2-8-TPU-Typ ist beispielsweise ein einzelnes TPU v2-Gerät mit 8 Kernen. Der TPU-Typ v3-2048 hat 256 verknüpfte TPU-v3-Geräte und insgesamt 2.048 Kerne. TPU-Typen sind eine in der Cloud TPU API definierte Ressource.

TPU-Worker

#TensorFlow
#GoogleCloud

Ein Prozess, der auf einem Hostcomputer ausgeführt wird und Programme für maschinelles Lernen auf TPU-Geräten ausführt.