Diese Seite enthält TensorFlow-Glossarbegriffe. Alle Glossarbegriffe finden Sie hier.
B
Batchinferenz
Das Ableiten von Vorhersagen für mehrere Beispiele ohne Labels, unterteilt in kleinere Untergruppen („Batches“).
Eine Batch-Inferenz kann die Parallelisierungsfeatures von Beschleunigerchips nutzen. Das bedeutet, dass mehrere Beschleuniger gleichzeitig Vorhersagen zu verschiedenen Batches von Beispielen ohne Labels ableiten können, was die Anzahl der Inferenzen pro Sekunde drastisch erhöht.
C
Cloud TPU
Ein spezieller Hardwarebeschleuniger, der dazu dient, Arbeitslasten für maschinelles Lernen auf der Google Cloud Platform zu beschleunigen.
D
Dataset API (tf.data)
Eine allgemeine TensorFlow-API zum Lesen von Daten und Umwandeln von Daten in eine Form, die ein Algorithmus für maschinelles Lernen benötigt.
Ein tf.data.Dataset
-Objekt stellt eine Folge von Elementen dar, in der jedes Element einen oder mehrere Tensoren enthält. Ein tf.data.Iterator
-Objekt bietet Zugriff auf die Elemente eines Dataset
-Elements.
Weitere Informationen zur Dataset API finden Sie im TensorFlow Programmer Guide unter tf.data: Build TensorFlow Input Pipelines.
Gerät
Ein überlasteter Begriff mit den folgenden zwei möglichen Definitionen:
- Eine Kategorie von Hardware, die eine TensorFlow-Sitzung ausführen kann, einschließlich CPUs, GPUs und TPUs.
- Beim Trainieren eines ML-Modells auf Beschleunigerchips (GPUs oder TPUs) handelt es sich um den Teil des Systems, der Tensoren und Einbettungen tatsächlich bearbeitet. Das Gerät wird auf Accelerator-Chips ausgeführt. Im Gegensatz dazu wird der Host normalerweise auf einer CPU ausgeführt.
E
Flüchtige Ausführung
Eine TensorFlow-Programmumgebung, in der Vorgänge sofort ausgeführt werden. Im Gegensatz dazu werden Vorgänge, die bei der Diagrammausführung aufgerufen werden, erst ausgeführt, wenn sie explizit ausgewertet wurden. Eine flüchtige Ausführung ist eine imperative Schnittstelle, die dem Code in den meisten Programmiersprachen ähnelt. Komplexere Ausführungsprogramme sind in der Regel weitaus einfacher für die Fehlerbehebung als Graph-Ausführungsprogramme.
Estimator
Eine verworfene TensorFlow API. Verwenden Sie tf.keras anstelle von Estimatoren.
F
Feature Engineering
Ein Prozess mit den folgenden Schritten:
- Ermitteln, welche Features zum Trainieren eines Modells nützlich sein können.
- Rohdaten aus dem Dataset in effiziente Versionen dieser Features umwandeln.
Sie könnten beispielsweise feststellen, dass temperature
ein nützliches Feature ist. Anschließend können Sie mit Bucketing experimentieren, um das Modell mit verschiedenen temperature
-Bereichen zu optimieren.
Feature Engineering wird manchmal als Featureextraktion bezeichnet.
Featurespezifikation
Beschreibt die Informationen, die zum Extrahieren von Feature-Daten aus dem Protokollzwischenspeicher tf.Example erforderlich sind. Da der tf.Example-Zwischenspeicher nur ein Container für Daten ist, müssen Sie Folgendes angeben:
- Die zu extrahierenden Daten (die Schlüssel für die Features)
- den Datentyp (z. B. float oder int)
- Die Länge (fest oder variabel)
G
Grafik
In TensorFlow eine Rechenspezifikation. Die Knoten im Diagramm stellen Vorgänge dar. Die Kanten werden ausgerichtet und stellen die Weitergabe des Ergebnisses eines Vorgangs (einen Tensor) als Operand an einen anderen Vorgang dar. Verwenden Sie TensorBoard, um ein Diagramm zu visualisieren.
Graph Execution
Eine TensorFlow-Programmumgebung, in der das Programm zuerst eine Grafik erstellt und dann diese Grafik vollständig oder teilweise ausführt. Die Diagrammausführung ist in TensorFlow 1.x der Standardausführungsmodus.
Im Gegensatz zur schnelleren Ausführung:
H
Host
Beim Trainieren eines ML-Modells auf Beschleunigerchips (GPUs oder TPUs) der Teil des Systems, der beide der folgenden Bereiche steuert:
- Der Gesamtablauf des Codes.
- Extraktion und Transformation der Eingabepipeline.
Der Host wird normalerweise auf einer CPU ausgeführt, nicht auf einem Beschleuniger-Chip. Das Gerät bearbeitet Tensoren auf den Beschleunigerchips.
L
Layers API (tf.layers)
Eine TensorFlow API zum Erstellen eines tiefen neuronalen Netzwerks als Zusammensetzung von Ebenen. Mit der Layers API können Sie verschiedene Arten von Ebenen erstellen, z. B.:
tf.layers.Dense
für eine vollständig verbundene Ebene.tf.layers.Conv2D
für eine Faltungsebene.
Die Layers API entspricht den Konventionen der Keras Layer API. Das bedeutet, dass alle Funktionen in der Layers API bis auf ein anderes Präfix dieselben Namen und Signaturen haben wie ihre Gegenstücke in der Keras Layers API.
M
Mesh-Netzwerk
Bei der parallelen Programmierung in ML ein Begriff, der TPU-Chips die Daten und das Modell zuweist und definiert, wie diese Werte fragmentiert oder repliziert werden.
Ein Mesh-Netzwerk ist ein überlasteter Begriff, der Folgendes bedeuten kann:
- Ein physisches Layout von TPU-Chips.
- Ein abstraktes logisches Konstrukt für die Zuordnung von Daten und Modell zu den TPU-Chips.
In beiden Fällen wird ein Mesh-Netzwerk als Form angegeben.
Messwert
Eine wichtige Statistik.
Ein Ziel ist ein Messwert, den ein System für maschinelles Lernen optimiert.
N
Knoten (TensorFlow-Grafik)
Ein Vorgang in einem TensorFlow-Diagramm.
O
Vorgang (op)
Bei TensorFlow wird jedes Verfahren, das einen Tensor erstellt, manipuliert oder zerstört. Eine Matrixmultiplikation ist beispielsweise ein Vorgang, bei dem zwei Tensoren als Eingabe verwendet werden und ein Tensor als Ausgabe generiert wird.
P
Parameterserver (PS)
Ein Job, der die Parameter eines Modells in einer verteilten Einstellung verfolgt.
F
kuh
Ein TensorFlow-Vorgang, der eine Warteschlangendatenstruktur implementiert. Wird normalerweise in der E/A verwendet.
R
Rang (Tensor)
Die Anzahl der Dimensionen in einem Tensor. Beispiel: Ein Skalar hat den Rang 0, ein Vektor hat den Rang 1 und eine Matrix hat den Rang 2.
Nicht zu verwechseln mit dem Rang (Ordinalität).
Stammverzeichnis
Das Verzeichnis, das Sie für das Hosting von Unterverzeichnissen des TensorFlow-Prüfpunkts und der Ereignisdateien mehrerer Modelle angeben.
S
SavedModel
Das empfohlene Format zum Speichern und Wiederherstellen von TensorFlow-Modellen. JWT ist ein sprachneutrales, wiederherstellbares Serialisierungsformat, das es übergeordneten Systemen und Tools ermöglicht, TensorFlow-Modelle zu erstellen, zu nutzen und zu transformieren.
Ausführliche Informationen finden Sie im TensorFlow Programmierer-Leitfaden im Kapitel Speichern und wiederherstellen.
Kostengünstig
Ein TensorFlow-Objekt, das für das Speichern von Modell-Prüfpunkten verantwortlich ist.
Shard
Eine logische Unterteilung des Trainings-Datasets oder des Modells. In der Regel werden bei einem Prozess Shards erstellt, indem die Beispiele oder Parameter in (in der Regel) gleich große Teile aufgeteilt werden. Jedes Shard wird dann einer anderen Maschine zugewiesen.
Die Fragmentierung eines Modells wird als Modellparallelität und die Fragmentierung von Daten als Datenparallelität bezeichnet.
Zusammenfassung
In TensorFlow ein Wert oder eine Gruppe von Werten, die in einem bestimmten Schritt berechnet und normalerweise für das Tracking von Modellmesswerten während des Trainings verwendet werden.
D
Tensor
Die primäre Datenstruktur in TensorFlow-Programmen. Tensoren sind n-dimensionale Datenstrukturen, wobei N sehr groß sein kann. In den meisten Fällen sind Skalare, Vektoren oder Matrizen. Die Elemente eines Tensors können Ganzzahl-, Gleitkomma- oder Stringwerte enthalten.
TensorBoard
Das Dashboard, in dem die Zusammenfassungen angezeigt werden, die während der Ausführung eines oder mehrerer TensorFlow-Programme gespeichert werden.
TensorFlow
Eine umfangreiche, verteilte Machine-Learning-Plattform. Der Begriff bezieht sich auch auf die Basis-API-Ebene im TensorFlow-Stack, der eine allgemeine Berechnung von Dataflow-Diagrammen unterstützt.
TensorFlow wird zwar hauptsächlich für maschinelles Lernen verwendet, aber Sie können TensorFlow auch für Nicht-ML-Aufgaben verwenden, die eine numerische Berechnung mit Dataflow-Grafiken erfordern.
TensorFlow-Playground
Ein Programm, das veranschaulicht, wie unterschiedliche Hyperparameter das Modelltraining (hauptsächlich neuronales Netzwerk) beeinflussen. Rufen Sie http://playground.tensorflow.org auf, um mit TensorFlow Playground zu experimentieren.
TensorFlow bereitstellen
Eine Plattform zum Bereitstellen trainierter Modelle in der Produktion
Tensor Processing Unit (TPU)
Ein anwendungsspezifischer integrierter Kreis (ASIC), der die Leistung von Arbeitslasten für maschinelles Lernen optimiert. Diese ASICs werden als mehrere TPU-Chips auf einem TPU-Gerät bereitgestellt.
Tensor-Rang
Weitere Informationen finden Sie unter Rang (Tensor).
Tensor-Form
Die Anzahl der Elemente, die ein Tensor in verschiedenen Dimensionen enthält. Ein [5, 10] Tensor hat beispielsweise die Form 5 in einer Dimension und 10 in einer anderen.
Tensor-Größe
Die Gesamtzahl der Skalare, die ein Tensor enthält. Beispiel: Ein [5, 10] Tensor hat eine Größe von 50.
tf.Beispiel
Ein Standard- Protokollzwischenspeicher zum Beschreiben von Eingabedaten für das Training oder die Inferenz von ML-Modellen.
tf.keras
Eine Implementierung von Keras, die in TensorFlow eingebunden ist
TPU
Abkürzung für Tensor Processing Unit.
TPU-Chip
Ein programmierbarer linearer Algebra-Beschleuniger mit Chip, der hohe Reichweite und hohe Bandbreite bietet, der für ML-Arbeitslasten optimiert ist. Auf einem TPU-Gerät werden mehrere TPU-Chips bereitgestellt.
TPU-Gerät
Eine Platine mit mehreren TPU-Chips, Netzwerkschnittstellen mit hoher Bandbreite und Systemkühlungshardware
TPU-Master
Der zentrale Koordinierungsprozess, der auf einem Hostcomputer ausgeführt wird, der Daten, Ergebnisse, Programme, Leistung und Systemzustandsinformationen an die TPU-Worker sendet und empfängt. Der TPU-Master verwaltet und verwaltet auch TPU-Geräte.
TPU-Knoten
Eine TPU-Ressource auf der Google Cloud Platform mit einem bestimmten TPU-Typ. Der TPU-Knoten stellt über ein Peer-VPC-Netzwerk eine Verbindung zu Ihrem VPC-Netzwerk her. TPU-Knoten sind eine in der Cloud TPU API definierte Ressource.
TPU-Pod
Eine bestimmte Konfiguration von TPU-Geräten in einem Google-Rechenzentrum. Alle Geräte in einem TPU-Pod sind über ein dediziertes Hochgeschwindigkeitsnetzwerk miteinander verbunden. Ein TPU-Pod ist die größte Konfiguration der TPU-Geräte, die für eine bestimmte TPU-Version verfügbar sind.
TPU-Ressource
Eine TPU-Entität auf der Google Cloud Platform, die Sie erstellen, verwalten oder nutzen. TPU-Knoten und TPU-Typen sind beispielsweise TPU-Ressourcen.
TPU-Slice
Ein TPU-Slice ist ein Bruchteil der TPU-Geräte in einem TPU-Pod. Alle Geräte in einem TPU-Slice sind über ein dediziertes Hochgeschwindigkeitsnetzwerk miteinander verbunden.
TPU-Typ
Die Konfiguration eines oder mehrerer TPU-Geräte mit einer bestimmten TPU-Hardwareversion. Sie wählen einen TPU-Typ aus, wenn Sie einen TPU-Knoten auf der Google Cloud Platform erstellen. Ein v2-8
-TPU-Typ ist beispielsweise ein einzelnes TPU v2-Gerät mit 8 Kernen. Der TPU-Typ v3-2048
hat 256 verknüpfte TPU-v3-Geräte und insgesamt 2.048 Kerne. TPU-Typen sind eine in der Cloud TPU API definierte Ressource.
TPU-Worker
Ein Prozess, der auf einem Hostcomputer ausgeführt wird und Programme für maschinelles Lernen auf TPU-Geräten ausführt.