Diese Seite enthält Google Cloud-Glossarbegriffe. Alle Glossarbegriffe finden Sie hier.
A
Accelerator-Chip
Eine Kategorie spezieller Hardwarekomponenten, die entwickelt wurden, um die für Deep-Learning-Algorithmen erforderlichen Berechnungen durchzuführen.
Accelerator-Chips (kurz Beschleuniger) können die Geschwindigkeit und Effizienz von Trainings- und Inferenzaufgaben im Vergleich zu einer Allzweck-CPU erheblich erhöhen. Sie sind ideal für das Training von neuronalen Netzwerken und ähnlichen rechenintensiven Aufgaben.
Beispiele für Accelerator-Chips:
- Tensor Processing Units (TPUs) von Google mit dedizierter Hardware für Deep Learning
- NVIDIA GPUs, die zwar ursprünglich für die Grafikverarbeitung konzipiert wurden, ermöglichen jedoch eine parallele Verarbeitung, was die Verarbeitungsgeschwindigkeit erheblich erhöhen kann.
B
Batchinferenz
Das Ableiten von Vorhersagen für mehrere Beispiele ohne Labels, unterteilt in kleinere Untergruppen („Batches“).
Eine Batch-Inferenz kann die Parallelisierungsfeatures von Beschleunigerchips nutzen. Das bedeutet, dass mehrere Beschleuniger gleichzeitig Vorhersagen zu verschiedenen Batches von Beispielen ohne Labels ableiten können, was die Anzahl der Inferenzen pro Sekunde drastisch erhöht.
C
Cloud TPU
Ein spezieller Hardwarebeschleuniger, der dazu dient, Arbeitslasten für maschinelles Lernen auf der Google Cloud Platform zu beschleunigen.
D
Gerät
Ein überlasteter Begriff mit den folgenden zwei möglichen Definitionen:
- Eine Kategorie von Hardware, die eine TensorFlow-Sitzung ausführen kann, einschließlich CPUs, GPUs und TPUs.
- Beim Trainieren eines ML-Modells auf Beschleunigerchips (GPUs oder TPUs) handelt es sich um den Teil des Systems, der Tensoren und Einbettungen tatsächlich bearbeitet. Das Gerät wird auf Accelerator-Chips ausgeführt. Im Gegensatz dazu wird der Host normalerweise auf einer CPU ausgeführt.
H
Host
Beim Trainieren eines ML-Modells auf Beschleunigerchips (GPUs oder TPUs) der Teil des Systems, der beide der folgenden Bereiche steuert:
- Der Gesamtablauf des Codes.
- Extraktion und Transformation der Eingabepipeline.
Der Host wird normalerweise auf einer CPU ausgeführt, nicht auf einem Beschleuniger-Chip. Das Gerät bearbeitet Tensoren auf den Beschleunigerchips.
M
Mesh-Netzwerk
Bei der parallelen Programmierung in ML ein Begriff, der TPU-Chips die Daten und das Modell zuweist und definiert, wie diese Werte fragmentiert oder repliziert werden.
Ein Mesh-Netzwerk ist ein überlasteter Begriff, der Folgendes bedeuten kann:
- Ein physisches Layout von TPU-Chips.
- Ein abstraktes logisches Konstrukt für die Zuordnung von Daten und Modell zu den TPU-Chips.
In beiden Fällen wird ein Mesh-Netzwerk als Form angegeben.
S
Shard
Eine logische Unterteilung des Trainings-Datasets oder des Modells. In der Regel werden bei einem Prozess Shards erstellt, indem die Beispiele oder Parameter in (in der Regel) gleich große Teile aufgeteilt werden. Jedes Shard wird dann einer anderen Maschine zugewiesen.
Die Fragmentierung eines Modells wird als Modellparallelität und die Fragmentierung von Daten als Datenparallelität bezeichnet.
D
Tensor Processing Unit (TPU)
Ein anwendungsspezifischer integrierter Kreis (ASIC), der die Leistung von Arbeitslasten für maschinelles Lernen optimiert. Diese ASICs werden als mehrere TPU-Chips auf einem TPU-Gerät bereitgestellt.
TPU
Abkürzung für Tensor Processing Unit.
TPU-Chip
Ein programmierbarer linearer Algebra-Beschleuniger mit Chip, der hohe Reichweite und hohe Bandbreite bietet, der für ML-Arbeitslasten optimiert ist. Auf einem TPU-Gerät werden mehrere TPU-Chips bereitgestellt.
TPU-Gerät
Eine Platine mit mehreren TPU-Chips, Netzwerkschnittstellen mit hoher Bandbreite und Systemkühlungshardware
TPU-Master
Der zentrale Koordinierungsprozess, der auf einem Hostcomputer ausgeführt wird, der Daten, Ergebnisse, Programme, Leistung und Systemzustandsinformationen an die TPU-Worker sendet und empfängt. Der TPU-Master verwaltet und verwaltet auch TPU-Geräte.
TPU-Knoten
Eine TPU-Ressource auf der Google Cloud Platform mit einem bestimmten TPU-Typ. Der TPU-Knoten stellt über ein Peer-VPC-Netzwerk eine Verbindung zu Ihrem VPC-Netzwerk her. TPU-Knoten sind eine in der Cloud TPU API definierte Ressource.
TPU-Pod
Eine bestimmte Konfiguration von TPU-Geräten in einem Google-Rechenzentrum. Alle Geräte in einem TPU-Pod sind über ein dediziertes Hochgeschwindigkeitsnetzwerk miteinander verbunden. Ein TPU-Pod ist die größte Konfiguration der TPU-Geräte, die für eine bestimmte TPU-Version verfügbar sind.
TPU-Ressource
Eine TPU-Entität auf der Google Cloud Platform, die Sie erstellen, verwalten oder nutzen. TPU-Knoten und TPU-Typen sind beispielsweise TPU-Ressourcen.
TPU-Slice
Ein TPU-Slice ist ein Bruchteil der TPU-Geräte in einem TPU-Pod. Alle Geräte in einem TPU-Slice sind über ein dediziertes Hochgeschwindigkeitsnetzwerk miteinander verbunden.
TPU-Typ
Die Konfiguration eines oder mehrerer TPU-Geräte mit einer bestimmten TPU-Hardwareversion. Sie wählen einen TPU-Typ aus, wenn Sie einen TPU-Knoten auf der Google Cloud Platform erstellen. Ein v2-8
-TPU-Typ ist beispielsweise ein einzelnes TPU v2-Gerät mit 8 Kernen. Der TPU-Typ v3-2048
hat 256 verknüpfte TPU-v3-Geräte und insgesamt 2.048 Kerne. TPU-Typen sind eine in der Cloud TPU API definierte Ressource.
TPU-Worker
Ein Prozess, der auf einem Hostcomputer ausgeführt wird und Programme für maschinelles Lernen auf TPU-Geräten ausführt.