Glossar zum maschinellen Lernen: TensorFlow

Mit Sammlungen den Überblick behalten Sie können Inhalte basierend auf Ihren Einstellungen speichern und kategorisieren.

Diese Seite enthält Begriffe aus dem TensorFlow-Glossar. Alle Glossarbegriffe finden Sie hier.

C

Cloud TPU

#Bind
#Google Cloud

Ein spezieller Hardwarebeschleuniger zur Beschleunigung von ML-Arbeitslasten auf der Google Cloud Platform.

D

Dataset API (tf.data)

#Bind

Allgemeine TensorFlow API zum Lesen und Umwandeln von Daten in eine Form, die ein Algorithmus für maschinelles Lernen benötigt. Ein tf.data.Dataset-Objekt stellt eine Folge von Elementen dar, in der jedes Element einen oder mehrere Tensoren enthält. Ein tf.data.Iterator-Objekt bietet Zugriff auf die Elemente einer Dataset.

Weitere Informationen zur Dataset API finden Sie im Leitfaden zu TensorFlow-Eingabeprogrammen unter tf.data: Build-Eingabepipelines erstellen.

Gerät

#Bind

Eine Kategorie von Hardware, die eine TensorFlow-Sitzung ausführen kann, einschließlich CPUs, GPUs und TPUs.

E

Ausführung im Voraus

#Bind

Eine TensorFlow-Programmierumgebung, in der Vorgänge sofort ausgeführt werden. Im Gegensatz dazu werden in der Grafikausführung aufgerufene Vorgänge erst ausgeführt, nachdem sie explizit ausgewertet wurden. Die aktive Ausführung ist eine imperative Schnittstelle, die dem Code in den meisten Programmiersprachen sehr ähnlich ist. Fleißige Ausführungsprogramme sind in der Regel weitaus einfacher zu beheben als Graph-Ausführungsprogramme.

Estimator

#Bind

Eine eingestellte TensorFlow API. Verwenden Sie tf.keras anstelle von Estimators.

F

Feature Engineering

#fundamentals
#Bind

Ein Prozess, der die folgenden Schritte umfasst:

  1. Features ermitteln, die beim Trainieren eines Modells hilfreich sein können.
  2. Rohdaten aus dem Dataset in effiziente Versionen dieser Features umwandeln

So könnten Sie beispielsweise feststellen, dass temperature ein nützliches Feature ist. Anschließend können Sie mit dem Bucketing experimentieren, um zu optimieren, was das Modell aus verschiedenen temperature-Bereichen lernen kann.

Feature Engineering wird manchmal als Feature Extraktion bezeichnet.

Featurespezifikation

#Bind

Beschreibt die Informationen, die zum Extrahieren von features-Daten aus dem tf.Example-Protokollpuffer erforderlich sind. Da der tf.Example-Protokollpuffer nur ein Container für Daten ist, müssen Sie Folgendes angeben:

  • die zu extrahierenden Daten (Schlüssel für die Features)
  • den Datentyp (z. B. Gleitkommazahl oder Ganzzahl)
  • Länge (fest oder variabel)

G

Graph

#Bind

Eine Berechnungsspezifikation in TensorFlow. Knoten im Diagramm stellen Vorgänge dar. Kanten werden gerichtet und stellen die Übergabe des Ergebnisses eines Vorgangs (einen Tensor) als Operand an einen anderen Vorgang dar. Mit TensorBoard eine Grafik visualisieren.

Graph Execution

#Bind

Eine TensorFlow-Programmierumgebung, in der das Programm zuerst einen Graph erstellt und dann diesen Teil des Diagramms oder einen Teil davon ausführt. Die Ausführung von Graphen ist der Standardausführungsmodus in TensorFlow 1.x.

Kontrast zur schnellen Ausführung.

l

Layers API (tf.layers)

#Bind

Eine TensorFlow API zum Erstellen eines tiefen neuronalen Netzwerks als Zusammensetzung von Ebenen Mit der Layers API können Sie verschiedene Arten von Ebenen erstellen, z. B.:

Die Layers API entspricht den Keras-Layer-API-Konventionen. Abgesehen von einem anderen Präfix haben alle Funktionen in der Layers API dieselben Namen und Signaturen wie die entsprechenden in der Keras Layers API.

M

Messwert

#Bind

Eine Statistik, die Sie interessiert.

Ein Ziel ist ein Messwert, den ein maschinelles Lernsystem versucht, zu optimieren.

N

Knoten (TensorFlow-Grafik)

#Bind

Vorgang in einem Grafikdiagramm von TensorFlow

O

Vorgang (op)

#Bind

In TensorFlow ein Verfahren, das einen Tensor erstellt, manipuliert oder zerstört Eine Matrixmultiplikation ist beispielsweise ein Vorgang, bei dem zwei Tensoren als Eingabe verwendet und ein Tensor als Ausgabe generiert wird.

P

Parameterserver (PS)

#Bind

Ein Job, der die Parameter eines Modells in einer verteilten Einstellung verfolgt.

F

kuh

#Bind

Ein Vorgang, der eine Warteschlangendatenstruktur implementiert. Wird normalerweise in der E/A verwendet.

R

Rang (Tensor)

#Bind

Die Anzahl der Dimensionen in einem Tensor Ein Skalar hat beispielsweise Rang 0, ein Vektor einen Rang von 1 und eine Matrix einen Rang von 2.

Nicht zu verwechseln mit dem Rang (Ordinalität).

Stammverzeichnis

#Bind

Das Verzeichnis, das Sie für das Hosting von Unterverzeichnissen des TensorFlow-Prüfpunkts und der Ereignisdateien mehrerer Modelle angeben.

S

SavedModel

#Bind

Das empfohlene Format zum Speichern und Wiederherstellen von TensorFlow-Modellen. SavedModel ist ein sprachneutrales, wiederherstellbares Serialisierungsformat, das es übergeordneten Systemen und Tools ermöglicht, TensorFlow-Modelle zu erstellen, zu verarbeiten und zu transformieren.

Weitere Informationen finden Sie im TensorFlow-Programmierer-Leitfaden unter Kapitel zum Speichern und Wiederherstellen.

Kostengünstig

#Bind

Ein Tensor-Objekt, das für das Speichern von Modellprüfpunkten verantwortlich ist.

Zusammenfassung

#Bind

In TensorFlow ein Wert oder eine Gruppe von Werten, die in einem bestimmten Schritt berechnet und in der Regel für das Tracking von Modellmesswerten während des Trainings verwendet werden.

T

Tensor

#Bind

Die primäre Datenstruktur in TensorFlow-Programmen. Tensoren sind N-dimensionale Datenstrukturen, bei denen N sehr groß sein kann. Meist werden Skalare, Vektoren oder Matrizen verwendet. Die Elemente eines Tensors können Ganzzahl-, Gleitkomma- oder Stringwerte enthalten.

TensorBoard

#Bind

Das Dashboard mit den Zusammenfassungen, die während der Ausführung eines oder mehrerer TensorFlow-Programme gespeichert wurden.

TensorFlow

#Bind

Eine verteilte, verteilte Plattform für maschinelles Lernen Der Begriff bezieht sich auch auf die Basis-API-Ebene im TensorFlow-Stack, die allgemeine Berechnungen für Dataflow-Grafiken unterstützt.

Obwohl TensorFlow hauptsächlich für maschinelles Lernen verwendet wird, können Sie TensorFlow auch für Nicht-ML-Aufgaben verwenden, die eine numerische Berechnung mithilfe von Dataflow-Grafiken erfordern.

TensorFlow Playground

#Bind

Ein Programm, das visualisiert, wie verschiedene Hyperparameter das Modelltraining (hauptsächlich neuronales Netzwerk) beeinflussen. Rufen Sie http://playground.tensorflow.org auf, um mit TensorFlow Playground zu experimentieren.

TensorFlow bereitstellen

#Bind

Eine Plattform zum Bereitstellen trainierter Modelle in der Produktion.

Tensor Processing Unit (TPU)

#Bind
#Google Cloud

Ein anwendungsspezifischer integrierter Schaltkreis (Integrated Circuit, ASIC), der die Leistung von ML-Arbeitslasten optimiert. Diese ASICs werden als mehrere TPU-Chips auf einem TPU-Gerät bereitgestellt.

Tensor-Rang

#Bind

Siehe rank (Tensor).

Tensor-Form

#Bind

Die Anzahl der Elemente, die ein Tensor in verschiedenen Dimensionen enthält. Ein [5, 10] Tensor hat beispielsweise die Form 5 in einer Dimension und 10 in der anderen.

Tensorgröße

#Bind

Die Gesamtzahl der in Tensor enthaltenen Skalare. Ein Tensor hat beispielsweise [5, 10] die Größe 50.

tf.Beispiel

#Bind

Ein Standardprotokollzwischenspeicher zum Beschreiben von Eingabedaten für das Training oder die Inferenz von Modellen für maschinelles Lernen.

tf.keras

#Bind

Eine Implementierung von Keras, die in TensorFlow eingebunden ist

TPU

#Bind
#Google Cloud

Abkürzung für Tensor Processing Unit.

TPU-Chip

#Bind
#Google Cloud

Ein programmierbarer linearer Algebrabeschleuniger mit On-Chip-Speicher mit hoher Bandbreite, der für ML-Arbeitslasten optimiert ist. Auf einem TPU-Gerät werden mehrere TPU-Chips bereitgestellt.

TPU-Gerät

#Bind
#Google Cloud

Eine Leiterplatte (PCB) mit mehreren TPU-Chips, Netzwerkschnittstellen mit hoher Bandbreite und Systemkühlungshardware

TPU-Master

#Bind
#Google Cloud

Der zentrale Koordinationsprozess, der auf einem Hostcomputer ausgeführt wird, der Daten, Ergebnisse, Programme, Leistung und Systemzustandsinformationen an die TPU-Worker sendet und empfängt. Der TPU-Master verwaltet auch das Einrichten und Herunterfahren von TPU-Geräten.

TPU-Knoten

#Bind
#Google Cloud

Eine TPU-Ressource auf der Google Cloud Platform mit einem bestimmten TPU-Typ. Der TPU-Knoten stellt eine Verbindung zu Ihrem VPC-Netzwerk über ein Peer-VPC-Netzwerk her. TPU-Knoten sind eine in der Cloud TPU API definierte Ressource.

TPU-Pod

#Bind
#Google Cloud

Eine spezifische Konfiguration von TPU-Geräten in einem Google-Rechenzentrum. Alle Geräte in einem TPU-Pod sind über ein dediziertes Hochgeschwindigkeitsnetzwerk miteinander verbunden. Ein TPU Pod ist die größte Konfiguration von TPU-Geräten, die für eine bestimmte TPU-Version verfügbar sind.

TPU-Ressource

#Bind
#Google Cloud

Eine TPU-Entität auf der Google Cloud Platform, die Sie erstellen, verwalten oder nutzen. Zum Beispiel sind TPU-Knoten und TPU-Typen TPU-Ressourcen.

TPU-Slice

#Bind
#Google Cloud

Ein TPU-Slice ist ein Bruchteil der TPU-Geräte in einem TPU-Pod. Alle Geräte in einem TPU-Slice sind über ein dediziertes Hochgeschwindigkeitsnetzwerk miteinander verbunden.

TPU-Typ

#Bind
#Google Cloud

Eine Konfiguration eines oder mehrerer TPU-Geräte mit einer bestimmten TPU-Hardwareversion. Sie wählen einen TPU-Typ aus, wenn Sie einen TPU-Knoten auf der Google Cloud Platform erstellen. Ein v2-8-TPU-Typ ist beispielsweise ein einzelnes TPU v2-Gerät mit 8 Kernen. Ein v3-2048-TPU-Typ hat 256 Netzwerk-TPU-v3-Geräte mit insgesamt 2.048 Kernen. TPU-Typen sind eine in der Cloud TPU API definierte Ressource.

TPU-Worker

#Bind
#Google Cloud

Ein Prozess, der auf einem Hostcomputer ausgeführt wird und Programme für maschinelles Lernen auf TPU-Geräten ausführt.