Słowniczek systemów uczących się: Google Cloud

Ta strona zawiera terminy z glosariusza Google Cloud. Aby zobaczyć wszystkie terminy ze glosariusza, kliknij tutaj.

O

układ akceleratora

#GoogleCloud

Kategoria specjalistycznych komponentów sprzętowych, które wykonują kluczowe obliczenia wymagane przez algorytmy deep learning.

Układy akceleratora (lub po prostu akceleratory) mogą znacznie zwiększyć szybkość i wydajność zadań trenowania i wnioskowania w porównaniu do procesorów do zwykłych obciążeń. Świetnie sprawdzają się przy trenowaniu sieci neuronowych i podobnych zadaniach wymagających dużej mocy obliczeniowej.

Przykłady układów akceleratorów:

  • Jednostki Tensor Processing Unit (TPU) od Google ze specjalnym sprzętem do deep learningu.
  • Procesory graficzne NVIDIA, które początkowo zostały zaprojektowane z myślą o przetwarzaniu grafiki, zostały zaprojektowane do obsługi przetwarzania równoległego, które może znacznie zwiększyć szybkość przetwarzania.

B

wnioskowanie wsadowe

#TensorFlow
#GoogleCloud

Proces wnioskowania prognoz na wielu przykładach bez etykiet podzielony na mniejsze podzbiory („grupy”).

Wskazywanie wsadowe może korzystać z funkcji równoległego przetwarzania układów akceleratora. Oznacza to, że wiele akceleratorów może jednocześnie wywnioskować prognozy na różnych wsadach przykładów bez etykiet, co znacznie zwiększa liczbę wniosków na sekundę.

C

Cloud TPU

#TensorFlow
#GoogleCloud

Specjalistyczny akcelerator sprzętowy zaprojektowany w celu przyspieszenia zadań systemów uczących się w Google Cloud.

D

urządzenie

#TensorFlow
#GoogleCloud

Termin, który jest przeciążony, z dwoma możliwymi definicjami:

  1. Kategoria sprzętu, który może uruchomić sesję TensorFlow, obejmująca procesory, GPU i TPU.
  2. Podczas trenowania modelu ML na układach akceleratorów (GPU lub TPU) część systemu, która faktycznie obsługuje tenery i umieszczane elementy. Urządzenie korzysta z układów akceleratora. Natomiast host działa zwykle na procesorze.

H

organizator

#TensorFlow
#GoogleCloud

Podczas trenowania modelu ML na układach akceleratora (GPU lub TPU) ta część systemu, która steruje oboma tymi elementami:

  • Ogólny przepływ kodu.
  • Wyodrębnianie i przekształcanie potoku wejściowego.

Host zwykle działa na procesorze, a nie na układzie scalonym akceleratora, a urządzenie manipuluje tenisorami na układach akceleratora.

P

sieć typu mesh

#TensorFlow
#GoogleCloud

W programowaniu równoległym ML termin związany z przypisywaniem danych i modelu do układów TPU oraz definiowaniem sposobu, w jaki te wartości będą fragmentowane lub replikowane.

Sieć typu mesh to termin przeciążony, który może oznaczać:

  • Fizyczny układ układów TPU.
  • Abstrakcyjny konstrukt logiczny do mapowania danych i modelu na układy TPU.

W obu przypadkach siatka jest określona jako kształt.

S

fragment

#TensorFlow
#GoogleCloud

Logiczny podział zbioru treningowego lub modelu. Zwykle niektóre procesy tworzy fragmenty, dzieląc przykłady lub parametry na fragmenty o jednakowej wielkości. Każdy fragment jest następnie przypisywany do innej maszyny.

Fragmentacja modelu jest nazywana równoległością modelu, a fragmentowanie danych jest nazywane równoległością danych.

T

Tensor Processing Unit (TPU)

#TensorFlow
#GoogleCloud

Układ scalony ASIC, który optymalizuje wydajność zadań systemów uczących się. Te układy ASIC są wdrożone jako wiele układów TPU na urządzeniu TPU.

TPU

#TensorFlow
#GoogleCloud

Skrót od wyrażenia Tensor Processing Unit.

Układ TPU

#TensorFlow
#GoogleCloud

Programowalny liniowy akcelerator algebry z wbudowaną pamięcią o dużej przepustowości i zoptymalizowaną pod kątem zbiorów zadań systemów uczących się. Urządzenie TPU jest wyposażone w wiele układów TPU.

Urządzenie TPU

#TensorFlow
#GoogleCloud

Płytka drukowana z wieloma układami TPU, interfejsami sieciowymi o dużej przepustowości i sprzętem chłodzącym system.

Główny TPU

#TensorFlow
#GoogleCloud

Centralny proces koordynacji działający na hoście, który wysyła i odbiera dane, wyniki, programy, wydajność i informacje o stanie systemu do instancji roboczych TPU. Główny moduł TPU zarządza też konfiguracją i wyłączaniem urządzeń TPU.

Węzeł TPU

#TensorFlow
#GoogleCloud

Zasób TPU w Google Cloud z określonym typem TPU. Węzeł TPU łączy się z Twoją siecią VPC przez równorzędną sieć VPC. Węzły TPU są zasobami zdefiniowanymi w Cloud TPU API.

pod TPU

#TensorFlow
#GoogleCloud

Konkretna konfiguracja urządzeń TPU w centrum danych Google. Wszystkie urządzenia w podzie TPU są połączone ze sobą przez dedykowaną szybką sieć. Pod TPU to największa konfiguracja urządzeń TPU dostępna dla określonej wersji TPU.

Zasób TPU

#TensorFlow
#GoogleCloud

Encja TPU w Google Cloud, którą tworzysz, którym zarządzasz lub którą używasz. Na przykład węzły TPU i typy TPU są zasobami TPU.

Wycinek TPU

#TensorFlow
#GoogleCloud

Wycinek TPU to ułamkowa część urządzeń TPU w podzie TPU. Wszystkie urządzenia w wycinku TPU są połączone ze sobą przez dedykowaną sieć o szybkości.

Typ TPU

#TensorFlow
#GoogleCloud

Konfiguracja co najmniej 1 urządzenia TPU z określoną wersją sprzętową TPU. Typ TPU wybierasz podczas tworzenia węzła TPU w Google Cloud. Na przykład typ TPU v2-8 to pojedyncze urządzenie TPU v2 z 8 rdzeniami. Typ TPU v3-2048 ma 256 urządzeń sieciowych TPU v3 i łącznie 2048 rdzeni. Typy TPU są zasobami zdefiniowanymi w Cloud TPU API.

Instancja robocza TPU

#TensorFlow
#GoogleCloud

Proces, który działa na hoście i uruchamia programy systemów uczących się na urządzeniach TPU.