Słowniczek systemów uczących się: Google Cloud

Ta strona zawiera terminy z glosariusza Google Cloud. Aby uzyskać dostęp do wszystkich glosariuszy, kliknij tutaj.

A

element akceleratora

#GoogleCloud

Kategoria specjalnych komponentów sprzętowych stworzonych do wykonywania kluczowych obliczeń potrzebnych algorytmom deep learning.

Układy z akceleratorem (lub tylko akceleratory) mogą znacznie zwiększyć szybkość i wydajność zadań treningowych oraz wnioskowania w porównaniu z zwykłym procesorem. Doskonale nadają się do trenowania sieci neuronowych i podobnych zadań obliczeniowych.

Przykłady elementów akceleratora:

  • Jednostki Tensor Processing Unit (TPU) Google z dedykowanym sprzętem do deep learningu.
  • Procesory graficzne NVIDIA, które początkowo były opracowane z myślą o przetwarzaniu grafiki, zostały zaprojektowane w sposób umożliwiający przetwarzanie równoległe, co może znacznie zwiększyć szybkość przetwarzania.

B

wnioskowanie wsadowe

#TensorFlow
#GoogleCloud

Proces uwzględniania prognoz na wielu przykładach bez etykiety podzielonych na mniejsze podzbiory („grupy”).

Wnioskowanie zbiorcze może korzystać z funkcji równoległego przetwarzania elementów akceleratora. Oznacza to, że wiele akceleratorów jednocześnie może wywnioskować prognozy na różnych partiach nieoznaczonych etykietami, co znacznie zwiększy liczbę zależności na sekundę.

C

Cloud TPU

#TensorFlow
#GoogleCloud

Specjalny akcelerator sprzętowy zaprojektowany do przyspieszenia zadań systemów uczących się w Google Cloud Platform.

D

urządzenie

#TensorFlow
#GoogleCloud

Przeciążone hasło z tymi 2 możliwymi definicjami:

  1. Kategoria sprzętu, która może uruchamiać sesję TensorFlow, w tym procesory, GPU i TPU.
  2. Podczas trenowania modelu ML w układach akceleratora (GPU lub TPU) – części systemu, która faktycznie manipuluje tensorami i osadzonymi. Urządzenie działa na układach akceleratora. Host zazwyczaj działa na procesorze.

H

Gospodarz

#TensorFlow
#GoogleCloud

Podczas trenowania modelu ML w elementach akceleratora (GPU lub TPU) jest częścią systemu, która kontroluje oba te elementy:

  • Ogólny przepływ kodu.
  • Wyodrębnianie i przekształcanie potoku wejściowego.

Host zwykle korzysta z procesora, a nie z akceleratora. Urządzenie manipuluje tensorami w elementach akceleratora.

P

sieć typu mesh

#TensorFlow
#GoogleCloud

W programowaniu równorzędnym ML termin powiązany z przypisywaniem danych i modeli do elementów TPU oraz definiowanie fragmentów lub powielania tych wartości.

Siatka to przeciążony termin, który może oznaczać:

  • Układ fizyczny elementów układu TPU.
  • Abstrakcyjny logiczny schemat mapowania danych i modelu na układy TPU.

W obu przypadkach siatka jest określana jako kształt.

S

fragment

#TensorFlow
#GoogleCloud

Podział logiczny zestawu treningowego lub modelu. Zazwyczaj niektóre procesy umożliwiają tworzenie fragmentów przez dzielenie przykładów lub parametrów na (zwykle) fragmenty o równym rozmiarze. Każdy fragment jest następnie przypisywany do innej maszyny.

Fragmentacja modelu jest nazywana równoległością modelu, a fragmenty danych to równoległość danych.

T

Jednostka Tensor Processing Unit (TPU)

#TensorFlow
#GoogleCloud

Układ specyficzny dla aplikacji (ASIC), który optymalizuje wydajność zadań systemów uczących się. Te interfejsy ASIC są wdrażane jako wiele elementów TPU na urządzeniu TPU.

TPU

#TensorFlow
#GoogleCloud

Skrót od Tensor Processing Unit.

Element TPU

#TensorFlow
#GoogleCloud

Programowalny akcelerator algebry linearnej z wbudowaną pamięcią o dużej przepustowości, która jest zoptymalizowana pod kątem zadań systemów uczących się. Na urządzeniu TPU wdrożonych jest wiele elementów TPU.

Urządzenie TPU

#TensorFlow
#GoogleCloud

Płytka drukowana (PCB) z wieloma układami TPU, interfejsami sieciowymi o dużej przepustowości i sprzętem do chłodzenia systemu.

Główna jednostka TPU

#TensorFlow
#GoogleCloud

Centralny proces koordynacji uruchomiony na hoście, który wysyła i odbiera dane, wyniki, programy, wydajność i informacje o stanie systemu instancjach TPU. Zarządzamy też konfiguracją i wyłączeniem urządzeń TPU.

Węzeł TPU

#TensorFlow
#GoogleCloud

Zasób TPU w Google Cloud Platform z określonym typem TPU. Węzeł TPU łączy się z siecią VPC z równorzędnej sieci VPC. Węzły TPU to zasób zdefiniowane w interfejsie Cloud TPU API.

pod TPU

#TensorFlow
#GoogleCloud

Konkretna konfiguracja urządzeń TPU w Centrum danych Google. Wszystkie urządzenia w podie TPU są połączone ze sobą przez dedykowaną sieć o dużej szybkości. Pod TPU to największa konfiguracja urządzeń TPU dostępnych w przypadku konkretnej wersji TPU.

Zasób TPU

#TensorFlow
#GoogleCloud

Encja TPU w Google Cloud Platform, którą tworzysz, którymi zarządzasz lub z której korzystasz. Na przykład Węzły TPU i typy TPU są zasobami TPU.

Wycinek TPU

#TensorFlow
#GoogleCloud

Wycinek TPU to ułamek części urządzeń TPU w podie TPU. Wszystkie urządzenia w wycinku TPU są ze sobą połączone przez specjalną sieć o dużej szybkości.

Typ TPU

#TensorFlow
#GoogleCloud

Konfiguracja co najmniej 1 urządzenia TPU z określoną wersją sprzętu TPU. Typ TPU wybierasz podczas tworzenia węzła TPU w Google Cloud Platform. Na przykład typ TPU v2-8 to pojedyncze urządzenie TPU v2 z 8 rdzeniami. Typ TPU v3-2048 ma 256 urządzeń sieciowych w wersji 3 i łącznie 2048 rdzeni. Typy TPU to zasoby zdefiniowane w interfejsie Cloud TPU API.

Instancja robocza TPU

#TensorFlow
#GoogleCloud

Proces, który działa na komputerze hosta i wykonuje programy systemów uczących się na urządzeniach TPU.