Ta strona zawiera terminy glosariusza TensorFlow. Aby uzyskać dostęp do wszystkich glosariuszy, kliknij tutaj.
C
Cloud TPU
Specjalny akcelerator sprzętowy zaprojektowany do przyspieszenia zadań systemów uczących się w Google Cloud Platform.
R
Interfejs Dataset API (tf.data)
Ogólny interfejs API TensorFlow do odczytywania danych i przekształcania ich w formę wymaganą przez algorytm systemów uczących się.
Obiekt tf.data.Dataset
reprezentuje sekwencję elementów, w której każdy element zawiera co najmniej 1 tensora. Obiekt tf.data.Iterator
zapewnia dostęp do elementów tagu Dataset
.
Szczegółowe informacje o interfejsie Dataset API znajdziesz w artykule o tf.data: kompilowanie potoków wejściowych TensorFlow w przewodniku dla programistów TensorFlow.
urządzenie
Kategoria sprzętu, która może uruchamiać sesję TensorFlow, w tym procesory, GPU i TPU.
E
szybkie wykonanie
Środowisko programistyczne TensorFlow, w którym operacje są uruchamiane natychmiast. Operacje wykonywane w wykonywaniu wykresu nie są uruchamiane, dopóki nie zostaną wyraźnie ocenione. Natychmiastowe wykonanie to interfejs w większości języków programowania. Łatwiejsze debugowanie jest łatwiejsze w obsłudze, niż programy do wykonywania wykresów.
Oszacowanie
Wycofany interfejs TensorFlow API. Używaj szacunków tf.keras.
Pt
ekstrakcja wyróżników
Proces, który obejmuje następujące kroki:
- Określenie, które funkcje mogą być przydatne przy trenowaniu modelu.
- Konwersja nieprzetworzonych danych ze zbioru danych do wydajnych wersji tych funkcji.
Może się na przykład okazać, że temperature
jest przydatna. Możesz też poeksperymentować z zasobnikiem, aby zoptymalizować informacje, które model może uzyskać z różnych zakresów temperature
.
Inżynieria cech to czasem wyodrębnianie funkcji.
specyfikacja funkcji
Opisuje informacje wymagane do wyodrębnienia danych funkcji z bufora protokołu tf.Example. Ponieważ bufor protokołu tf.Example jest tylko kontenerem na dane, musisz określić:
- dane do wyodrębnienia (tj. klucze funkcji);
- typu danych (np. liczba zmiennoprzecinkowa lub int),
- długość (stała lub zmienna).
G
wykres
TensorFlow – specyfikacja obliczeniowa. Węzły na wykresie reprezentują operacje. Krawędzie są kierowane i przedstawiają przekazanie wyniku operacji (Tensor) jako operację innej operacji. Użyj funkcji TensorBoard, aby zwizualizować wykres.
wykonanie wykresu
Środowisko programistyczne TensorFlow, w którym program najpierw tworzy wykres, a potem wykonuje całość lub część tego wykresu. Wykonanie na wykresie to domyślny tryb wykonywania w TensorFlow 1.x.
w przeciwieństwie do szybkiego wykonywania.
L
Interfejs API warstw (tf.layers)
Interfejs TensorFlow API do tworzenia głębokiej sieci neuronowej jako kompilacja warstw. Interfejs Warstwy API umożliwia tworzenie różnych typów warstw, takich jak:
tf.layers.Dense
dla w pełni połączonej warstwy.tf.layers.Conv2D
dla warstwy z przesunięciem.
Interfejs Warstwy API jest zgodny z konwencjami interfejsu API Keras. Oznacza to, że (oprócz innego prefiksu) wszystkie funkcje interfejsu API warstw mają te same nazwy i podpisy co ich odpowiedniki w interfejsie Keras API.
P
wskaźnik
Najważniejsze dane, które Cię interesują.
Celowy to wskaźnik, który system uczący się próbuje optymalizować.
N
węzeł (wykres TensorFlow)
Operacja na wykresie TensorFlow.
O
operacja (operacja)
W TensorFlow każda procedura tworząca, manipulująca lub niszcząca Tensor. Na przykład mnożenie macierzy to operacja, która pobiera 2 Tensor jako dane wejściowe i generuje 1 Tensor jako dane wyjściowe.
P
Serwer parametrów (PS)
Zadanie, które śledzi parametry modelu w rozproszonym ustawieniu.
P
kolejka
Operację TensorFlow, która implementuje strukturę danych kolejki. Zwykle używane na konferencji I/O.
R
pozycja (Tensor)
Liczba wymiarów w narzędziu Tensor. Na przykład skalarna ma wartość 0, wektor – 1, a matryca 2.
Nie należy ich mylić z rankingiem (zwykłym).
katalog główny
Wskazany przez Ciebie katalog do hostowania podkatalogów czeku TensorFlow i plików zdarzeń wielu modeli.
S
SavedModel
Zalecany format do zapisywania i przywracania modeli TensorFlow. SavedModel to format serializacji niewymagający języków, który można odzyskać, aby umożliwiać tworzenie, wykorzystywanie i przekształcanie modeli TensorFlow, które należą do wyższego poziomu.
Szczegółowe informacje znajdziesz w rozdziale Zapisywanie i przywracanie w podręczniku programisty TensorFlow.
Ekonomiczna
Obiekt TensorFlow odpowiedzialny za zapisywanie punktów kontrolnych modelu.
podsumowanie
W TensorFlow wartość lub zestaw wartości obliczanych na określonym kroku zwykle używany do śledzenia wskaźników modelu podczas trenowania.
T
Tensor,
Główna struktura danych w programach TensorFlow. Tensory to N-wymiarowe struktury danych (gdzie N może być bardzo duże) – najczęściej skalary, wektory i matryce. Elementy tensora mogą zawierać liczby całkowite, zmiennoprzecinkowe lub ciągi tekstowe.
TensorBoard
Panel wyświetlający informacje zapisane podczas wykonywania co najmniej jednego programu TensorFlow.
TensorFlow
Duża, rozproszona platforma systemów uczących się. Ten termin odnosi się również do bazowej warstwy interfejsu API w stosie TensorFlow, który obsługuje ogólne obliczenia na wykresach przepływu danych.
Chociaż narzędzie TensorFlow jest używane głównie przez systemy uczące się, możesz też używać TensorFlow do zadań nieobsługujących systemów uczących się, które wymagają obliczeń liczbowych za pomocą wykresów przepływu danych.
Plac zabaw TensorFlow
Program do wizualizacji wpływu różnych hiperparametrów na trenowanie modelu (głównie sieci neuronowej). Otwórz stronę http://playground.tensorflow.org, aby poeksperymentować z TensorFlow Playground.
Obsługa TensorFlow
Platforma do wdrażania wytrenowanych modeli w środowisku produkcyjnym.
Jednostka Tensor Processing Unit (TPU)
Układ specyficzny dla aplikacji (ASIC), który optymalizuje wydajność zadań systemów uczących się. Te interfejsy ASIC są wdrażane jako wiele elementów TPU na urządzeniu TPU.
Ranking Tensor
Zobacz ranking (tensor).
Kształt tensora
Liczba elementów w Tensor o różnych wymiarach. Na przykład [5, 10] tensor ma kształt 5 w jednym wymiarze i 10 w innym.
Rozmiar tensora
Łączna liczba skalarów w Tensor. Na przykład [5, 10] Tensor ma rozmiar 50.
Przykład
Standardowy bufor protokołu opisujący dane wejściowe do trenowania lub wnioskowania modelu systemów uczących się.
tf.keras,
Implementacja Keras zintegrowanych z TensorFlow.
TPU
Skrót od Tensor Processing Unit.
Element TPU
Programowalny akcelerator algebry linearnej z wbudowaną pamięcią o dużej przepustowości, która jest zoptymalizowana pod kątem zadań systemów uczących się. Na urządzeniu TPU wdrożonych jest wiele elementów TPU.
Urządzenie TPU
Płytka drukowana (PCB) z wieloma układami TPU, interfejsami sieciowymi o dużej przepustowości i sprzętem do chłodzenia systemu.
Główna jednostka TPU
Centralny proces koordynacji uruchomiony na hoście, który wysyła i odbiera dane, wyniki, programy, wydajność i informacje o stanie systemu instancjach TPU. Zarządzamy też konfiguracją i wyłączeniem urządzeń TPU.
Węzeł TPU
Zasób TPU w Google Cloud Platform z określonym typem TPU. Węzeł TPU łączy się z siecią VPC z równorzędnej sieci VPC. Węzły TPU to zasób zdefiniowane w interfejsie Cloud TPU API.
pod TPU
Konkretna konfiguracja urządzeń TPU w Centrum danych Google. Wszystkie urządzenia w podie TPU są połączone ze sobą przez dedykowaną sieć o dużej szybkości. Pod TPU to największa konfiguracja urządzeń TPU dostępnych w przypadku konkretnej wersji TPU.
Zasób TPU
Encja TPU w Google Cloud Platform, którą tworzysz, którymi zarządzasz lub z której korzystasz. Na przykład Węzły TPU i typy TPU są zasobami TPU.
Wycinek TPU
Wycinek TPU to ułamek części urządzeń TPU w podie TPU. Wszystkie urządzenia w wycinku TPU są ze sobą połączone przez specjalną sieć o dużej szybkości.
Typ TPU
Konfiguracja co najmniej 1 urządzenia TPU z określoną wersją sprzętu TPU. Typ TPU wybierasz podczas tworzenia węzła TPU w Google Cloud Platform. Na przykład typ TPU v2-8
to pojedyncze urządzenie TPU v2 z 8 rdzeniami. Typ TPU v3-2048
ma 256 urządzeń sieciowych w wersji 3 i łącznie 2048 rdzeni. Typy TPU to zasoby zdefiniowane w interfejsie Cloud TPU API.
Instancja robocza TPU
Proces, który działa na komputerze hosta i wykonuje programy systemów uczących się na urządzeniach TPU.