Glosariusz systemów uczących się: TensorFlow

Zadbaj o dobrą organizację dzięki kolekcji Zapisuj i kategoryzuj treści zgodnie ze swoimi preferencjami.

Ta strona zawiera terminy słowniczka TensorFlow. Wszystkie terminy słowniczka znajdziesz tutaj.

C

Cloud TPU

#TensorFlow
#GoogleCloud

Specjalistyczny akcelerator sprzętowy zaprojektowany, aby przyspieszyć zadania systemów uczących się w Google Cloud Platform.

D

Dataset API (tf.data)

#TensorFlow

Ogólny interfejs API TensorFlow do odczytu danych i przekształcania go w formę wymaganą przez algorytm systemów uczących się. Obiekt tf.data.Dataset reprezentuje sekwencję elementów, w której każdy element zawiera co najmniej 1 tensor. Obiekt tf.data.Iterator zapewnia dostęp do elementów Dataset.

Więcej informacji o interfejsie Dataset API znajdziesz w artykule o tf.data: kompilowanie potoków wejściowych TensorFlow w przewodniku dla programistów TensorFlow.

device

#TensorFlow

Kategoria sprzętu, która może uruchamiać sesję TensorFlow, w tym procesory, GPU i TPU.

E

szybkie wykonanie

#TensorFlow

Środowisko programowania TensorFlow, w którym operacje są uruchamiane natychmiast. Z kolei operacje wykonywane w wykonywaniu wykresu nie są wykonywane, dopóki nie zostaną wyraźnie sprawdzone. Natychmiastowe uruchomienie to interfejs impulsowy, podobnie jak kod w większości języków programowania. Łatwiejsze debugowanie jest zwykle łatwiejsze niż programy wykonywania wykresów.

Oszacowanie

#TensorFlow

Wycofany interfejs TensorFlow API. Zamiast szacunków użyj słowa tf.keras.

F

ekstrakcja wyróżników

#fundamentals
#TensorFlow

Proces, który obejmuje następujące kroki:

  1. Określanie, które funkcje mogą być przydatne w trenowaniu modelu.
  2. Przekształcanie nieprzetworzonych danych ze zbioru danych w skuteczne wersje tych funkcji.

Możesz na przykład zauważyć, że funkcja temperature może być przydatna. Następnie możesz poeksperymentować z zasobnikiem, aby zoptymalizować informacje z różnych zakresów temperature modelu.

Inżynieria cech jest czasem nazywana wyodrębnianiem funkcji.

specyfikacja funkcji

#TensorFlow

Opisuje informacje wymagane do wyodrębnienia danych funkcji z bufora protokołu tf.Example. Ponieważ bufor protokołów jest tylko kontenerem danych, musisz określić:

  • dane do wyodrębnienia (tzn. klucze funkcji)
  • typ danych (np. liczba zmiennoprzecinkowa lub int)
  • Długość (stała lub zmienna)

Z

wykres

#TensorFlow

W TensorFlow, specyfikacja obliczeniowa. Węzły na wykresie przedstawiają operacje. Krawędzie są kierowane i przekazują wynik operacji (Tensor) jako argumentu innej operacji. Użyj TensorBoard, aby zwizualizować wykres.

wykonanie wykresu

#TensorFlow

Środowisko programistyczne TensorFlow, w którym program najpierw kompiluje wykres, a następnie wykonuje cały wykres lub jego część. Wykonanie wykresu to domyślny tryb wykonywania w TensorFlow 1.x.

kontrast z szybkim wykonaniem;

N

Warstwy API (tf.layers)

#TensorFlow

Interfejs TensorFlow API do tworzenia głębokich sieci neuronowych jako kompozycji warstw. Interfejs Warstwy API umożliwia tworzenie różnych typów warstw, takich jak:

Interfejs Warstwy API jest zgodny z konwencją interfejsu API Keras. Oznacza to, że oprócz innego prefiksu wszystkie funkcje w interfejsie Warstwy API mają te same nazwy i podpisy co ich odpowiedniki w interfejsie Keras API.

M

wskaźnik

#TensorFlow

Ważne statystyki.

Obiektywny to wskaźnik, który system uczących się próbuje zoptymalizować.

N

węzeł (wykres TensorFlow)

#TensorFlow

Operacja w wykresie TensorFlow.

O

operacja (operacyjna)

#TensorFlow

W TensorFlow każda procedura, która tworzy, manipuluje lub niszczy Tensor. Na przykład mnożnik macierzy to operacja, która wykorzystuje 2 tensory jako dane wejściowe i generuje 1 tensor jako dane wyjściowe.

P

Serwer parametrów (PS)

#TensorFlow

Zadanie, które śledzi parametry modelu w rozproszonym ustawieniu.

Q

kolejka

#TensorFlow

Operacja TensorFlow, która implementuje strukturę danych kolejki. Zwykle służy do wejścia/wyjścia.

C

pozycja (Tensor)

#TensorFlow

Liczba wymiarów w Tensor. Na przykład skalarka ma wartość 0, wektor – 1, a matryca – 2.

Nie należy go mylić z rankingiem (zwykłym).

katalog główny

#TensorFlow

Wskazany katalog do hostowania podkatalogów pliku kontrolnego TensorFlow i plików zdarzeń wielu modeli.

s

SavedModel

#TensorFlow

Zalecany format do zapisywania i przywracania modeli TensorFlow. SavedModel to neutralny dla języka format, który można przywrócić, co umożliwia systemom i narzędziom wyższego poziomu produkcję, konsumpcję i przekształcanie modeli TensorFlow.

Więcej informacji znajdziesz w rozdziale Zapisywanie i przywracanie w przewodniku dla programistów TensorFlow.

Ekonomiczna

#TensorFlow

Obiekt TensorFlow odpowiedzialny za zapisywanie punktów kontrolnych modelu.

podsumowanie

#TensorFlow

W TensorFlow wartość lub zestaw wartości obliczanych w konkretnym kroku zwykle używanych do śledzenia danych modelu podczas trenowania.

T

Tensor

#TensorFlow

Główna struktura danych w programach TensorFlow. Tensory to N-wymiarowe struktury (gdzie N może być bardzo duże) – najczęściej skalary, wektory lub matryce. Elementy Tensor mogą zawierać wartości całkowite, zmiennoprzecinkowe lub ciągi.

TensorBoard

#TensorFlow

Panel pokazujący podsumowania zapisane podczas wykonywania co najmniej 1 programu TensorFlow.

TensorFlow

#TensorFlow

Duża, rozproszona platforma systemów uczących się. Termin ten odnosi się również do podstawowej warstwy interfejsu API w obrębie stosu TensorFlow, która obsługuje ogólne obliczenia na wykresach przepływu danych.

Chociaż TensorFlow jest używany głównie do systemów uczących się, możesz też używać TensorFlow do zadań innych niż ML, które wymagają obliczeń liczbowych za pomocą wykresów przepływu danych.

Plac zabaw TensorFlow

#TensorFlow

Program, który pokazuje, jak różne hiperparametry wpływają na trenowanie modelu (głównie sieci neuronowej). Otwórz stronę http://playground.tensorflow.org, aby przetestować TensorFlow Playground.

Obsługa TensorFlow

#TensorFlow

Platforma do wdrażania wytrenowanych modeli w środowisku produkcyjnym.

Tensor Processing Unit (TPU)

#TensorFlow
#GoogleCloud

Układ specyficzny dla aplikacji (ASIC), który optymalizuje wydajność zadań systemów uczących się. Te systemy ASIC są wdrażane jako wiele układów TPU na urządzeniu TPU.

Ranking Tensor

#TensorFlow

Zobacz ranking (Tensor).

Kształt Tensora

#TensorFlow

Liczba elementów, które zawiera Tensor w różnych wymiarach. Na przykład [5, 10] tensor ma kształt 5 w jednym wymiarze, a 10 w drugim.

Rozmiar Tensora

#TensorFlow

Łączna liczba skalerów zawierających Tensor. Na przykład [5, 10] Tensor ma rozmiar 50.

tf.Przykład

#TensorFlow

Standardowy bufor protokołu służący do opisywania danych wejściowych podczas trenowania lub wnioskowania modelu systemu uczącego się.

tf.keras

#TensorFlow

Wdrożenie Keras zintegrowanego z TensorFlow.

TPU

#TensorFlow
#GoogleCloud

Skrót od Tensor Processing Unit.

Element TPU

#TensorFlow
#GoogleCloud

Programowalny akcelerator algebrycznej z pamięcią o dużej przepustowości, która jest zoptymalizowana pod kątem zadań systemów uczących się. Na urządzeniu TPU wdrożonych jest wiele elementów TPU.

Urządzenie TPU

#TensorFlow
#GoogleCloud

Płytka obwodu drukowanego (PCB) z wieloma układami TPU, interfejsami sieci o dużej przepustowości i sprzętem do chłodzenia systemu.

Wzorzec TPU

#TensorFlow
#GoogleCloud

Centralny proces koordynacji na komputerze hosta, który wysyła i odbiera dane, wyniki, programy, wydajność oraz informacje o stanie systemu pracownikom TPU. Wzorzec TPU zarządza też konfiguracją i wyłączeniem urządzeń TPU.

Węzeł TPU

#TensorFlow
#GoogleCloud

Zasób TPU w Google Cloud Platform z określonym typem TPU. Węzeł TPU łączy się z siecią VPC z sieci równorzędnej VPC. Węzły TPU to zasób zdefiniowany w interfejsie Cloud TPU API.

pod TPU

#TensorFlow
#GoogleCloud

Konkretna konfiguracja urządzeń TPU w Centrum danych Google. Wszystkie urządzenia w podie TPU są połączone ze sobą przez dedykowaną sieć o dużej przepustowości. Pod TPU to największa konfiguracja urządzeń TPU dostępnych w określonej wersji TPU.

Zasób TPU

#TensorFlow
#GoogleCloud

Jednostka TPU w Google Cloud Platform, którą tworzysz, zarządzasz lub wykorzystujesz. Na przykład węzły TPU i typy TPU to zasoby TPU.

Wycinek TPU

#TensorFlow
#GoogleCloud

Wycinek TPU to ułamek części urządzeń TPU w podu TPU. Wszystkie urządzenia w wycinku TPU są połączone ze sobą przez dedykowaną sieć o dużej szybkości.

Typ TPU

#TensorFlow
#GoogleCloud

Konfiguracja co najmniej 1 urządzenia TPU o konkretnej wersji sprzętowej. Typ TPU wybierasz podczas tworzenia węzła TPU w Google Cloud Platform. Na przykład v2-8 to typ urządzenia TPU v2 z 8 rdzeniami. Typ TPU v3-2048 ma 256 sieciowych urządzeń TPU v3 i łącznie 2048 rdzeni. Typy TPU to zasób zdefiniowany w interfejsie Cloud TPU API.

Instancja robocza TPU

#TensorFlow
#GoogleCloud

Jest to proces, który działa na komputerze hosta i wykonuje programy do systemów uczących się na urządzeniach TPU.