Słowniczek systemów uczących się: TensorFlow

Ta strona zawiera terminy w glosariuszu TensorFlow. Aby zobaczyć wszystkie terminy ze glosariusza, kliknij tutaj.

B

wnioskowanie wsadowe

#TensorFlow
#GoogleCloud

Proces wnioskowania prognoz na wielu przykładach bez etykiet podzielony na mniejsze podzbiory („grupy”).

Wskazywanie wsadowe może korzystać z funkcji równoległego przetwarzania układów akceleratora. Oznacza to, że wiele akceleratorów może jednocześnie wywnioskować prognozy na różnych wsadach przykładów bez etykiet, co znacznie zwiększa liczbę wniosków na sekundę.

C

Cloud TPU

#TensorFlow
#GoogleCloud

Specjalistyczny akcelerator sprzętowy zaprojektowany w celu przyspieszenia zadań systemów uczących się w Google Cloud.

D

Dataset API (tf.data)

#TensorFlow

Ogólny interfejs API TensorFlow do odczytywania danych i przekształcania ich w postać wymaganą przez algorytm systemów uczących się. Obiekt tf.data.Dataset reprezentuje sekwencję elementów, w której każdy element zawiera co najmniej 1 Tensors. Obiekt tf.data.Iterator zapewnia dostęp do elementów Dataset.

Szczegółowe informacje o interfejsie Dataset API znajdziesz w sekcji tf.data: Build potoków wejściowych TensorFlow (Tworzenie potoków wejściowych TensorFlow) w Przewodniku dla programistów TensorFlow.

urządzenie

#TensorFlow
#GoogleCloud

Termin, który jest przeciążony, z dwoma możliwymi definicjami:

  1. Kategoria sprzętu, który może uruchomić sesję TensorFlow, obejmująca procesory, GPU i TPU.
  2. Podczas trenowania modelu ML na układach akceleratorów (GPU lub TPU) część systemu, która faktycznie obsługuje tenery i umieszczane elementy. Urządzenie korzysta z układów akceleratora. Natomiast host działa zwykle na procesorze.

E

szybkie wykonanie

#TensorFlow

Środowisko programistyczne TensorFlow, w którym operations są uruchamiane natychmiast. Natomiast operacje wywoływane podczas wykonania wykresu nie są wykonywane, dopóki nie zostaną bezpośrednio ocenione. Szybkie wykonywanie kodu jest interfejsem imperatywnym – podobnie jak kod w większości języków programowania. Programy wykonawcze wymagające dużych nakładów pracy są zwykle dużo łatwiejsze do debugowania niż programy do wykonywania kodu graficznego.

estymator

#TensorFlow

Wycofany interfejs API TensorFlow. Używaj tf.keras zamiast estymatorów.

F

ekstrakcja wyróżników

#fundamentals
#TensorFlow

Proces składający się z tych kroków:

  1. Określanie, które cechy mogą być przydatne podczas trenowania modelu.
  2. Konwertowanie nieprzetworzonych danych ze zbioru danych na efektywne wersje tych funkcji.

Możesz na przykład uznać, że temperature może być przydatną funkcją. Następnie możesz poeksperymentować z podziałem na segmenty, aby zoptymalizować to, czego model może nauczyć się na różnych zakresach temperature.

Inżynieria funkcji jest czasem nazywana wyodrębnianiem funkcji lub wyróżnianiem cech.

specyfikacja cech

#TensorFlow

Opisuje informacje wymagane do wyodrębnienia danych funkcji z bufora protokołu tf.Example. Bufor protokołu tf.Example jest tylko kontenerem na dane, więc musisz określić:

  • Dane do wyodrębnienia (czyli klucze funkcji)
  • typ danych (np. liczba zmiennoprzecinkowa lub int);
  • długość (stała lub zmienna),

G

wykres

#TensorFlow

Specyfikacja obliczeń w TensorFlow. Węzły na wykresie odzwierciedlają operacje. Krawędzie są kierowane i przedstawiają przekazanie wyniku operacji (Tensor) jako operandu do innej operacji. Zwizualizuj wykres za pomocą TensorBoard.

wykonanie grafu

#TensorFlow

Środowisko programistyczne TensorFlow, w którym program najpierw tworzy wykres, a potem wykonuje go w całości lub w części. Wykonywanie wykresu to domyślny tryb wykonywania w TensorFlow 1.x.

Porównaj je z szybkim wykonywaniem.

H

organizator

#TensorFlow
#GoogleCloud

Podczas trenowania modelu ML na układach akceleratora (GPU lub TPU) ta część systemu, która steruje oboma tymi elementami:

  • Ogólny przepływ kodu.
  • Wyodrębnianie i przekształcanie potoku wejściowego.

Host zwykle działa na procesorze, a nie na układzie scalonym akceleratora, a urządzenie manipuluje tenisorami na układach akceleratora.

L

Warstwy API (tf.layers)

#TensorFlow

interfejs API TensorFlow, który tworzy głęboką sieć neuronową jako kompozycję warstw. Interfejs Warstwy API pozwala tworzyć różnego rodzaju warstwy, takie jak:

Interfejs Warstwy API jest zgodny z konwencjami API warstw Keras. Oznacza to, że oprócz innego prefiksu wszystkie funkcje w interfejsie Warstwy API mają takie same nazwy i podpisy jak ich odpowiedniki w interfejsie API warstw Keras.

P

sieć typu mesh

#TensorFlow
#GoogleCloud

W programowaniu równoległym ML termin związany z przypisywaniem danych i modelu do układów TPU oraz definiowaniem sposobu, w jaki te wartości będą fragmentowane lub replikowane.

Sieć typu mesh to termin przeciążony, który może oznaczać:

  • Fizyczny układ układów TPU.
  • Abstrakcyjny konstrukt logiczny do mapowania danych i modelu na układy TPU.

W obu przypadkach siatka jest określona jako kształt.

wskaźnik

#TensorFlow

Statystyka, która Cię interesuje

Cel to wskaźnik, który system systemów uczących się próbuje zoptymalizować.

N

węzeł (wykres TensorFlow)

#TensorFlow

Operacja na wykresie TensorFlow.

O

operacja (operacja)

#TensorFlow

W TensorFlow każda procedura, która tworzy, manipuluje lub niszczy Tensor. Na przykład mnożenie macierzy to operacja, która pobiera 2 Tensory jako dane wejściowe i generuje jeden Tensor jako dane wyjściowe.

P

Serwer parametrów (PS)

#TensorFlow

Zadanie, które śledzi parametry modelu w rozmieszczonym ustawieniu.

P

kolejka

#TensorFlow

operacja TensorFlow, która implementuje strukturę danych kolejki. Zwykle używane podczas wejścia-wyjścia.

R

ranking (Tensor)

#TensorFlow

Liczba wymiarów w Tensor. Na przykład skalar ma pozycję 0, wektor – 1, a macierz 2.

Nie mylić ze stanem rank (ordinality).

katalog główny

#TensorFlow

Wskazany katalog hostujący podkatalogi plików kontrolnych i plików zdarzeń TensorFlow wielu modeli.

S

SavedModel

#TensorFlow

Zalecany format do zapisywania i przywracania modeli TensorFlow. SavedModel to neutralny pod względem języka format serializacji, który umożliwia systemom i narzędziom wyższego poziomu tworzenie, wykorzystywanie i przekształcanie modeli TensorFlow.

Więcej informacji znajdziesz w rozdziałie dotyczącym zapisywania i przywracania danych w przewodniku TensorFlow Programmer.

Ekonomiczna

#TensorFlow

Obiekt TensorFlow odpowiedzialny za zapisywanie punktów kontrolnych modelu.

fragment

#TensorFlow
#GoogleCloud

Logiczny podział zbioru treningowego lub modelu. Zwykle niektóre procesy tworzy fragmenty, dzieląc przykłady lub parametry na fragmenty o jednakowej wielkości. Każdy fragment jest następnie przypisywany do innej maszyny.

Fragmentacja modelu jest nazywana równoległością modelu, a fragmentowanie danych jest nazywane równoległością danych.

podsumowanie

#TensorFlow

W TensorFlow wartość lub zbiór wartości obliczonych w konkretnym kroku, zwykle używany do śledzenia wskaźników modelu podczas trenowania.

T

Tensor

#TensorFlow

Podstawowa struktura danych w programach TensorFlow. Tensory mają n-wymiarowe (gdzie N może być bardzo duże) struktury danych, najczęściej skalary, wektory lub macierze. Elementy Tensor mogą przyjmować wartości liczby całkowitej, liczby zmiennoprzecinkowej lub ciągu znaków.

TensorBoard

#TensorFlow

Panel, który wyświetla podsumowania zapisane podczas wykonywania co najmniej jednego programu TensorFlow.

TensorFlow

#TensorFlow

Duża, rozproszona platforma systemów uczących się. Termin dotyczy również podstawowej warstwy interfejsu API w stosie TensorFlow, która obsługuje ogólne obliczenia na wykresach Dataflow.

Mimo że TensorFlow używa się głównie do systemów uczących się, możesz go używać również do zadań niezwiązanych z systemami uczącymi się, które wymagają obliczeń liczbowych z wykorzystaniem wykresów przepływu danych.

Środowisko do testowania TensorFlow

#TensorFlow

Program, który wizualizuje wpływ różnych hiperparametrów na trenowanie modelu (głównie sieci neuronowych). Aby poeksperymentować z programem TensorFlow Playground, otwórz stronę http://playground.tensorflow.org.

Obsługa TensorFlow

#TensorFlow

Platforma do wdrażania wytrenowanych modeli w środowisku produkcyjnym.

Tensor Processing Unit (TPU)

#TensorFlow
#GoogleCloud

Układ scalony ASIC, który optymalizuje wydajność zadań systemów uczących się. Te układy ASIC są wdrożone jako wiele układów TPU na urządzeniu TPU.

Pozycja Tensor

#TensorFlow

Zobacz rank (Tensor).

Kształt tensora

#TensorFlow

Liczba elementów, które Tensor zawiera w różnych wymiarach. Na przykład Tensor [5, 10] ma w jednym wymiarze 5, a 10 w innym.

Rozmiar Tensor

#TensorFlow

Łączna liczba skalarów, które zawiera Tensor. Na przykład Tensor [5, 10] ma rozmiar 50.

tf.Example

#TensorFlow

Standardowy bufor protokołu do opisywania danych wejściowych na potrzeby trenowania lub wnioskowania modelu systemów uczących się.

tf.keras

#TensorFlow

Implementacja platformy Keras zintegrowana z TensorFlow.

TPU

#TensorFlow
#GoogleCloud

Skrót od wyrażenia Tensor Processing Unit.

Układ TPU

#TensorFlow
#GoogleCloud

Programowalny liniowy akcelerator algebry z wbudowaną pamięcią o dużej przepustowości i zoptymalizowaną pod kątem zbiorów zadań systemów uczących się. Urządzenie TPU jest wyposażone w wiele układów TPU.

Urządzenie TPU

#TensorFlow
#GoogleCloud

Płytka drukowana z wieloma układami TPU, interfejsami sieciowymi o dużej przepustowości i sprzętem chłodzącym system.

Główny TPU

#TensorFlow
#GoogleCloud

Centralny proces koordynacji działający na hoście, który wysyła i odbiera dane, wyniki, programy, wydajność i informacje o stanie systemu do instancji roboczych TPU. Główny moduł TPU zarządza też konfiguracją i wyłączaniem urządzeń TPU.

Węzeł TPU

#TensorFlow
#GoogleCloud

Zasób TPU w Google Cloud z określonym typem TPU. Węzeł TPU łączy się z Twoją siecią VPC przez równorzędną sieć VPC. Węzły TPU są zasobami zdefiniowanymi w Cloud TPU API.

pod TPU

#TensorFlow
#GoogleCloud

Konkretna konfiguracja urządzeń TPU w centrum danych Google. Wszystkie urządzenia w podzie TPU są połączone ze sobą przez dedykowaną szybką sieć. Pod TPU to największa konfiguracja urządzeń TPU dostępna dla określonej wersji TPU.

Zasób TPU

#TensorFlow
#GoogleCloud

Encja TPU w Google Cloud, którą tworzysz, którym zarządzasz lub którą używasz. Na przykład węzły TPU i typy TPU są zasobami TPU.

Wycinek TPU

#TensorFlow
#GoogleCloud

Wycinek TPU to ułamkowa część urządzeń TPU w podzie TPU. Wszystkie urządzenia w wycinku TPU są połączone ze sobą przez dedykowaną sieć o szybkości.

Typ TPU

#TensorFlow
#GoogleCloud

Konfiguracja co najmniej 1 urządzenia TPU z określoną wersją sprzętową TPU. Typ TPU wybierasz podczas tworzenia węzła TPU w Google Cloud. Na przykład typ TPU v2-8 to pojedyncze urządzenie TPU v2 z 8 rdzeniami. Typ TPU v3-2048 ma 256 urządzeń sieciowych TPU v3 i łącznie 2048 rdzeni. Typy TPU są zasobami zdefiniowanymi w Cloud TPU API.

Instancja robocza TPU

#TensorFlow
#GoogleCloud

Proces, który działa na hoście i uruchamia programy systemów uczących się na urządzeniach TPU.