Ta strona zawiera terminy z glosariusza Google Cloud. Aby uzyskać dostęp do wszystkich glosariuszy, kliknij tutaj.
A
element akceleratora
Kategoria specjalnych komponentów sprzętowych stworzonych do wykonywania kluczowych obliczeń potrzebnych algorytmom deep learning.
Układy z akceleratorem (lub tylko akceleratory) mogą znacznie zwiększyć szybkość i wydajność zadań treningowych oraz wnioskowania w porównaniu z zwykłym procesorem. Doskonale nadają się do trenowania sieci neuronowych i podobnych zadań obliczeniowych.
Przykłady elementów akceleratora:
- Jednostki Tensor Processing Unit (TPU) Google z dedykowanym sprzętem do deep learningu.
- Procesory graficzne NVIDIA, które początkowo były opracowane z myślą o przetwarzaniu grafiki, zostały zaprojektowane w sposób umożliwiający przetwarzanie równoległe, co może znacznie zwiększyć szybkość przetwarzania.
B
wnioskowanie wsadowe
Proces uwzględniania prognoz na wielu przykładach bez etykiety podzielonych na mniejsze podzbiory („grupy”).
Wnioskowanie zbiorcze może korzystać z funkcji równoległego przetwarzania elementów akceleratora. Oznacza to, że wiele akceleratorów jednocześnie może wywnioskować prognozy na różnych partiach nieoznaczonych etykietami, co znacznie zwiększy liczbę zależności na sekundę.
C
Cloud TPU
Specjalny akcelerator sprzętowy zaprojektowany do przyspieszenia zadań systemów uczących się w Google Cloud Platform.
D
urządzenie
Przeciążone hasło z tymi 2 możliwymi definicjami:
- Kategoria sprzętu, która może uruchamiać sesję TensorFlow, w tym procesory, GPU i TPU.
- Podczas trenowania modelu ML w układach akceleratora (GPU lub TPU) – części systemu, która faktycznie manipuluje tensorami i osadzonymi. Urządzenie działa na układach akceleratora. Host zazwyczaj działa na procesorze.
H
Gospodarz
Podczas trenowania modelu ML w elementach akceleratora (GPU lub TPU) jest częścią systemu, która kontroluje oba te elementy:
- Ogólny przepływ kodu.
- Wyodrębnianie i przekształcanie potoku wejściowego.
Host zwykle korzysta z procesora, a nie z akceleratora. Urządzenie manipuluje tensorami w elementach akceleratora.
P
sieć typu mesh
W programowaniu równorzędnym ML termin powiązany z przypisywaniem danych i modeli do elementów TPU oraz definiowanie fragmentów lub powielania tych wartości.
Siatka to przeciążony termin, który może oznaczać:
- Układ fizyczny elementów układu TPU.
- Abstrakcyjny logiczny schemat mapowania danych i modelu na układy TPU.
W obu przypadkach siatka jest określana jako kształt.
S
fragment
Podział logiczny zestawu treningowego lub modelu. Zazwyczaj niektóre procesy umożliwiają tworzenie fragmentów przez dzielenie przykładów lub parametrów na (zwykle) fragmenty o równym rozmiarze. Każdy fragment jest następnie przypisywany do innej maszyny.
Fragmentacja modelu jest nazywana równoległością modelu, a fragmenty danych to równoległość danych.
T
Jednostka Tensor Processing Unit (TPU)
Układ specyficzny dla aplikacji (ASIC), który optymalizuje wydajność zadań systemów uczących się. Te interfejsy ASIC są wdrażane jako wiele elementów TPU na urządzeniu TPU.
TPU
Skrót od Tensor Processing Unit.
Element TPU
Programowalny akcelerator algebry linearnej z wbudowaną pamięcią o dużej przepustowości, która jest zoptymalizowana pod kątem zadań systemów uczących się. Na urządzeniu TPU wdrożonych jest wiele elementów TPU.
Urządzenie TPU
Płytka drukowana (PCB) z wieloma układami TPU, interfejsami sieciowymi o dużej przepustowości i sprzętem do chłodzenia systemu.
Główna jednostka TPU
Centralny proces koordynacji uruchomiony na hoście, który wysyła i odbiera dane, wyniki, programy, wydajność i informacje o stanie systemu instancjach TPU. Zarządzamy też konfiguracją i wyłączeniem urządzeń TPU.
Węzeł TPU
Zasób TPU w Google Cloud Platform z określonym typem TPU. Węzeł TPU łączy się z siecią VPC z równorzędnej sieci VPC. Węzły TPU to zasób zdefiniowane w interfejsie Cloud TPU API.
pod TPU
Konkretna konfiguracja urządzeń TPU w Centrum danych Google. Wszystkie urządzenia w podie TPU są połączone ze sobą przez dedykowaną sieć o dużej szybkości. Pod TPU to największa konfiguracja urządzeń TPU dostępnych w przypadku konkretnej wersji TPU.
Zasób TPU
Encja TPU w Google Cloud Platform, którą tworzysz, którymi zarządzasz lub z której korzystasz. Na przykład Węzły TPU i typy TPU są zasobami TPU.
Wycinek TPU
Wycinek TPU to ułamek części urządzeń TPU w podie TPU. Wszystkie urządzenia w wycinku TPU są ze sobą połączone przez specjalną sieć o dużej szybkości.
Typ TPU
Konfiguracja co najmniej 1 urządzenia TPU z określoną wersją sprzętu TPU. Typ TPU wybierasz podczas tworzenia węzła TPU w Google Cloud Platform. Na przykład typ TPU v2-8
to pojedyncze urządzenie TPU v2 z 8 rdzeniami. Typ TPU v3-2048
ma 256 urządzeń sieciowych w wersji 3 i łącznie 2048 rdzeni. Typy TPU to zasoby zdefiniowane w interfejsie Cloud TPU API.
Instancja robocza TPU
Proces, który działa na komputerze hosta i wykonuje programy systemów uczących się na urządzeniach TPU.