Auf dieser Seite finden Sie Glossarbegriffe für Google Cloud. Hier finden Sie alle Glossarbegriffe.
A
Beschleuniger-Chip
Eine Kategorie von spezialisierten Hardwarekomponenten, die für die Durchführung wichtiger Berechnungen entwickelt wurden, die für Deep-Learning-Algorithmen erforderlich sind.
Beschleunigerchips (oder kurz Beschleuniger) können die Geschwindigkeit und Effizienz von Trainings- und Inferenzaufgaben im Vergleich zu einer Allzweck-CPU erheblich steigern. Sie eignen sich ideal für das Trainieren neuronaler Netze und ähnliche rechenintensive Aufgaben.
Beispiele für Beschleunigerchips:
- Tensor Processing Units (TPUs) von Google mit dedizierter Hardware für Deep Learning.
- NVIDIA-GPUs, die zwar ursprünglich für die Grafikverarbeitung entwickelt wurden, aber für die parallele Verarbeitung ausgelegt sind, was die Verarbeitungsgeschwindigkeit erheblich steigern kann.
B
Batchinferenz
Der Prozess des Schlussfolgerns von Vorhersagen für mehrere unbeschriftete Beispiele, die in kleinere Teilmengen („Batches“) unterteilt sind.
Bei der Batch-Inferenz können die Parallelisierungsfunktionen von Beschleunigerchips genutzt werden. Das bedeutet, dass mehrere Beschleuniger gleichzeitig Vorhersagen für verschiedene Batches von ungelabelten Beispielen ableiten können, wodurch sich die Anzahl der Inferenzen pro Sekunde erheblich erhöht.
Weitere Informationen finden Sie im Machine Learning Crash Course unter Production ML systems: Static versus dynamic inference.
C
Cloud TPU
Ein spezieller Hardwarebeschleuniger, der entwickelt wurde, um Arbeitslasten für maschinelles Lernen in Google Cloud zu beschleunigen.
D
Gerät
Ein überladener Begriff mit den folgenden zwei möglichen Definitionen:
- Eine Kategorie von Hardware, auf der eine TensorFlow-Sitzung ausgeführt werden kann, einschließlich CPUs, GPUs und TPUs.
- Beim Trainieren eines ML-Modells auf Beschleunigerchips (GPUs oder TPUs) ist dies der Teil des Systems, der Tensoren und Einbettungen verarbeitet. Das Gerät wird von Beschleunigerchips angetrieben. Im Gegensatz dazu wird der Host in der Regel auf einer CPU ausgeführt.
H
Host
Beim Trainieren eines ML-Modells auf Beschleunigerchips (GPUs oder TPUs) ist der Teil des Systems, der Folgendes steuert:
- Der allgemeine Ablauf des Codes.
- Die Extraktion und Transformation der Eingabepipeline.
Der Host wird in der Regel auf einer CPU und nicht auf einem Beschleunigerchip ausgeführt. Das Gerät verarbeitet Tensoren auf den Beschleunigerchips.
M
Mesh-Netzwerk
In der parallelen Programmierung für maschinelles Lernen ein Begriff, der sich auf das Zuweisen der Daten und des Modells zu TPU-Chips und das Definieren bezieht, wie diese Werte aufgeteilt oder repliziert werden.
„Mesh“ ist ein überladener Begriff, der Folgendes bedeuten kann:
- Ein physisches Layout von TPU-Chips.
- Ein abstraktes logisches Konstrukt zum Zuordnen der Daten und des Modells zu den TPU-Chips.
In beiden Fällen wird ein Mesh als Form angegeben.
S
Shard
Eine logische Aufteilung des Trainingssets oder des Modells. Normalerweise werden Shards durch Aufteilen der Beispiele oder Parameter in (in der Regel) gleich große Teile erstellt. Jeder Shard wird dann einer anderen Maschine zugewiesen.
Das Sharding eines Modells wird als Modellparallelität bezeichnet, das Sharding von Daten als Datenparallelität.
T
Tensor Processing Unit (TPU)
Ein anwendungsspezifischer integrierter Schaltkreis (Application-Specific Integrated Circuit, ASIC), der die Leistung von Arbeitslasten für maschinelles Lernen optimiert. Diese ASICs werden als mehrere TPU-Chips auf einem TPU-Gerät bereitgestellt.
TPU
Abkürzung für Tensor Processing Unit.
TPU-Chip
Ein programmierbarer Linearalgebra-Beschleuniger mit On-Chip-Arbeitsspeicher mit hoher Bandbreite, der für Arbeitslasten für maschinelles Lernen optimiert ist. Auf einem TPU-Gerät werden mehrere TPU-Chips bereitgestellt.
TPU-Gerät
Eine Leiterplatte mit mehreren TPU-Chips, Netzwerk-Schnittstellen mit hoher Bandbreite und Hardware zur Systemkühlung.
TPU-Knoten
Eine TPU-Ressource in Google Cloud mit einem bestimmten TPU-Typ. Der TPU-Knoten stellt über ein Peer-VPC-Netzwerk eine Verbindung zu Ihrem VPC-Netzwerk her. TPU-Knoten sind eine Ressource, die in der Cloud TPU API definiert ist.
TPU-Pod
Eine bestimmte Konfiguration von TPU-Geräten in einem Google-Rechenzentrum. Alle Geräte in einem TPU-Pod sind über ein dediziertes Hochgeschwindigkeitsnetzwerk miteinander verbunden. Ein TPU-Pod ist die größte Konfiguration von TPU-Geräten, die für eine bestimmte TPU-Version verfügbar ist.
TPU-Ressource
Eine TPU-Einheit in Google Cloud, die Sie erstellen, verwalten oder verwenden. Beispiele für TPU-Ressourcen sind TPU-Knoten und TPU-Typen.
TPU-Slice
Ein TPU-Slice ist ein Teil der TPU-Geräte in einem TPU-Pod. Alle Geräte in einem TPU-Slice sind über ein dediziertes Hochgeschwindigkeitsnetzwerk miteinander verbunden.
TPU-Typ
Eine Konfiguration aus einem oder mehreren TPU-Geräten mit einer bestimmten TPU-Hardwareversion. Sie wählen einen TPU-Typ aus, wenn Sie einen TPU-Knoten in Google Cloud erstellen. Ein v2-8
-TPU-Typ ist beispielsweise ein einzelnes TPU v2-Gerät mit 8 Kernen. Ein v3-2048
-TPU-Typ hat 256 vernetzte TPU v3-Geräte und insgesamt 2.048 Kerne. TPU-Typen sind eine Ressource, die in der Cloud TPU API definiert ist.
TPU-Worker
Ein Prozess, der auf einem Hostcomputer ausgeführt wird und ML-Programme auf TPU-Geräten ausführt.