Glossar zum maschinellen Lernen: Google Cloud

Diese Seite enthält Google Cloud-Glossarbegriffe. Alle Glossarbegriffe finden Sie hier.

A

Accelerator-Chip

#GoogleCloud

Eine Kategorie spezieller Hardwarekomponenten, die entwickelt wurden, um die für Deep-Learning-Algorithmen erforderlichen Berechnungen durchzuführen.

Accelerator-Chips (kurz Beschleuniger) können die Geschwindigkeit und Effizienz von Trainings- und Inferenzaufgaben im Vergleich zu einer Allzweck-CPU erheblich erhöhen. Sie sind ideal für das Training von neuronalen Netzwerken und ähnlichen rechenintensiven Aufgaben.

Beispiele für Accelerator-Chips:

  • Tensor Processing Units (TPUs) von Google mit dedizierter Hardware für Deep Learning
  • NVIDIA GPUs, die zwar ursprünglich für die Grafikverarbeitung konzipiert wurden, ermöglichen jedoch eine parallele Verarbeitung, was die Verarbeitungsgeschwindigkeit erheblich erhöhen kann.

B

Batchinferenz

#TensorFlow
#GoogleCloud

Das Ableiten von Vorhersagen für mehrere Beispiele ohne Labels, unterteilt in kleinere Untergruppen („Batches“).

Eine Batch-Inferenz kann die Parallelisierungsfeatures von Beschleunigerchips nutzen. Das bedeutet, dass mehrere Beschleuniger gleichzeitig Vorhersagen zu verschiedenen Batches von Beispielen ohne Labels ableiten können, was die Anzahl der Inferenzen pro Sekunde drastisch erhöht.

C

Cloud TPU

#TensorFlow
#GoogleCloud

Ein spezieller Hardwarebeschleuniger, der dazu dient, Arbeitslasten für maschinelles Lernen auf der Google Cloud Platform zu beschleunigen.

D

Gerät

#TensorFlow
#GoogleCloud

Ein überlasteter Begriff mit den folgenden zwei möglichen Definitionen:

  1. Eine Kategorie von Hardware, die eine TensorFlow-Sitzung ausführen kann, einschließlich CPUs, GPUs und TPUs.
  2. Beim Trainieren eines ML-Modells auf Beschleunigerchips (GPUs oder TPUs) handelt es sich um den Teil des Systems, der Tensoren und Einbettungen tatsächlich bearbeitet. Das Gerät wird auf Accelerator-Chips ausgeführt. Im Gegensatz dazu wird der Host normalerweise auf einer CPU ausgeführt.

H

Host

#TensorFlow
#GoogleCloud

Beim Trainieren eines ML-Modells auf Beschleunigerchips (GPUs oder TPUs) der Teil des Systems, der beide der folgenden Bereiche steuert:

  • Der Gesamtablauf des Codes.
  • Extraktion und Transformation der Eingabepipeline.

Der Host wird normalerweise auf einer CPU ausgeführt, nicht auf einem Beschleuniger-Chip. Das Gerät bearbeitet Tensoren auf den Beschleunigerchips.

M

Mesh-Netzwerk

#TensorFlow
#GoogleCloud

Bei der parallelen Programmierung in ML ein Begriff, der TPU-Chips die Daten und das Modell zuweist und definiert, wie diese Werte fragmentiert oder repliziert werden.

Ein Mesh-Netzwerk ist ein überlasteter Begriff, der Folgendes bedeuten kann:

  • Ein physisches Layout von TPU-Chips.
  • Ein abstraktes logisches Konstrukt für die Zuordnung von Daten und Modell zu den TPU-Chips.

In beiden Fällen wird ein Mesh-Netzwerk als Form angegeben.

S

Shard

#TensorFlow
#GoogleCloud

Eine logische Unterteilung des Trainings-Datasets oder des Modells. In der Regel werden bei einem Prozess Shards erstellt, indem die Beispiele oder Parameter in (in der Regel) gleich große Teile aufgeteilt werden. Jedes Shard wird dann einer anderen Maschine zugewiesen.

Die Fragmentierung eines Modells wird als Modellparallelität und die Fragmentierung von Daten als Datenparallelität bezeichnet.

D

Tensor Processing Unit (TPU)

#TensorFlow
#GoogleCloud

Ein anwendungsspezifischer integrierter Kreis (ASIC), der die Leistung von Arbeitslasten für maschinelles Lernen optimiert. Diese ASICs werden als mehrere TPU-Chips auf einem TPU-Gerät bereitgestellt.

TPU

#TensorFlow
#GoogleCloud

Abkürzung für Tensor Processing Unit.

TPU-Chip

#TensorFlow
#GoogleCloud

Ein programmierbarer linearer Algebra-Beschleuniger mit Chip, der hohe Reichweite und hohe Bandbreite bietet, der für ML-Arbeitslasten optimiert ist. Auf einem TPU-Gerät werden mehrere TPU-Chips bereitgestellt.

TPU-Gerät

#TensorFlow
#GoogleCloud

Eine Platine mit mehreren TPU-Chips, Netzwerkschnittstellen mit hoher Bandbreite und Systemkühlungshardware

TPU-Master

#TensorFlow
#GoogleCloud

Der zentrale Koordinierungsprozess, der auf einem Hostcomputer ausgeführt wird, der Daten, Ergebnisse, Programme, Leistung und Systemzustandsinformationen an die TPU-Worker sendet und empfängt. Der TPU-Master verwaltet und verwaltet auch TPU-Geräte.

TPU-Knoten

#TensorFlow
#GoogleCloud

Eine TPU-Ressource auf der Google Cloud Platform mit einem bestimmten TPU-Typ. Der TPU-Knoten stellt über ein Peer-VPC-Netzwerk eine Verbindung zu Ihrem VPC-Netzwerk her. TPU-Knoten sind eine in der Cloud TPU API definierte Ressource.

TPU-Pod

#TensorFlow
#GoogleCloud

Eine bestimmte Konfiguration von TPU-Geräten in einem Google-Rechenzentrum. Alle Geräte in einem TPU-Pod sind über ein dediziertes Hochgeschwindigkeitsnetzwerk miteinander verbunden. Ein TPU-Pod ist die größte Konfiguration der TPU-Geräte, die für eine bestimmte TPU-Version verfügbar sind.

TPU-Ressource

#TensorFlow
#GoogleCloud

Eine TPU-Entität auf der Google Cloud Platform, die Sie erstellen, verwalten oder nutzen. TPU-Knoten und TPU-Typen sind beispielsweise TPU-Ressourcen.

TPU-Slice

#TensorFlow
#GoogleCloud

Ein TPU-Slice ist ein Bruchteil der TPU-Geräte in einem TPU-Pod. Alle Geräte in einem TPU-Slice sind über ein dediziertes Hochgeschwindigkeitsnetzwerk miteinander verbunden.

TPU-Typ

#TensorFlow
#GoogleCloud

Die Konfiguration eines oder mehrerer TPU-Geräte mit einer bestimmten TPU-Hardwareversion. Sie wählen einen TPU-Typ aus, wenn Sie einen TPU-Knoten auf der Google Cloud Platform erstellen. Ein v2-8-TPU-Typ ist beispielsweise ein einzelnes TPU v2-Gerät mit 8 Kernen. Der TPU-Typ v3-2048 hat 256 verknüpfte TPU-v3-Geräte und insgesamt 2.048 Kerne. TPU-Typen sind eine in der Cloud TPU API definierte Ressource.

TPU-Worker

#TensorFlow
#GoogleCloud

Ein Prozess, der auf einem Hostcomputer ausgeführt wird und Programme für maschinelles Lernen auf TPU-Geräten ausführt.