Glosarium Machine Learning: TensorFlow

Halaman ini berisi istilah glosarium TensorFlow. Untuk semua istilah glosarium, klik di sini.

B

inferensi batch

#TensorFlow
#GoogleCloud

Proses prediksi inferensi pada beberapa contoh tak berlabel dibagi menjadi subkumpulan yang lebih kecil ("batch").

Inferensi batch dapat memanfaatkan fitur paralelisasi chip akselerator. Artinya, beberapa akselerator dapat secara bersamaan menyimpulkan prediksi pada berbagai batch contoh yang tidak berlabel, yang secara drastis meningkatkan jumlah inferensi per detik.

C

Cloud TPU

#TensorFlow
#GoogleCloud

Akselerator hardware khusus yang dirancang untuk mempercepat beban kerja machine learning di Google Cloud Platform.

D

API Set Data (tf.data)

#TensorFlow

TensorFlow API tingkat tinggi untuk membaca data dan mengubahnya menjadi bentuk yang diperlukan algoritme machine learning. Objek tf.data.Dataset mewakili urutan elemen, dengan setiap elemen berisi satu atau beberapa Tensor. Objek tf.data.Iterator memberikan akses ke elemen Dataset.

Untuk mengetahui detail tentang Dataset API, lihat tf.data: Membuat pipeline input TensorFlow di Panduan TensorFlow Programmer.

perangkat

#TensorFlow
#GoogleCloud

Istilah yang kelebihan muatan dengan dua kemungkinan definisi berikut:

  1. Kategori hardware yang dapat menjalankan sesi TensorFlow, termasuk CPU, GPU, dan TPU.
  2. Saat melatih model ML di chip akselerator (GPU atau TPU), bagian dari sistem yang benar-benar memanipulasi tensor dan embeddings. Perangkat berjalan pada chip akselerator. Sebaliknya, host biasanya berjalan di CPU.

E

eksekusi segera

#TensorFlow

Lingkungan pemrograman TensorFlow tempat operasi segera berjalan. Sebaliknya, operasi yang dipanggil dalam eksekusi grafik tidak akan berjalan hingga dievaluasi secara eksplisit. Eksekusi segera adalah antarmuka imperatif, seperti kode dalam sebagian besar bahasa pemrograman. Program eksekusi segera umumnya jauh lebih mudah di-debug daripada program eksekusi grafik.

Estimator

#TensorFlow

TensorFlow API yang tidak digunakan lagi. Gunakan tf.keras, bukan Estimator.

J

rekayasa fitur

#fundamentals
#TensorFlow

Proses yang melibatkan langkah-langkah berikut:

  1. Menentukan fitur mana yang mungkin berguna dalam melatih model.
  2. Mengonversi data mentah dari set data ke versi fitur yang efisien.

Misalnya, Anda mungkin menentukan bahwa temperature mungkin merupakan fitur yang berguna. Kemudian, Anda dapat bereksperimen dengan bucketing untuk mengoptimalkan hal yang dapat dipelajari model dari berbagai rentang temperature.

Rekayasa fitur terkadang disebut ekstraksi fitur.

spesifikasi fitur

#TensorFlow

Menjelaskan informasi yang diperlukan untuk mengekstrak data fitur dari buffering protokol tf.Example. Karena buffering protokol tf.Example hanyalah container untuk data, Anda harus menentukan hal berikut:

  • data yang akan diekstrak (yaitu, kunci untuk fitur)
  • jenis data (misalnya, float atau int)
  • Panjang (tetap atau variabel)

G

grafik

#TensorFlow

Di TensorFlow, spesifikasi komputasi. Node dalam grafik mewakili operasi. Edge diarahkan dan merepresentasikan penerusan suatu operasi (Tensor) sebagai operand ke operasi lain. Gunakan TensorBoard untuk memvisualisasikan grafik.

eksekusi grafik

#TensorFlow

Lingkungan pemrograman TensorFlow tempat program membuat grafik terlebih dahulu, lalu mengeksekusi semua atau sebagian grafik tersebut. Eksekusi grafik adalah mode eksekusi default di TensorFlow 1.x.

Berbeda dengan eksekusi segera.

H

host

#TensorFlow
#GoogleCloud

Saat melatih model ML di chip akselerator (GPU atau TPU), bagian sistem yang mengontrol kedua hal berikut:

  • Alur kode secara keseluruhan.
  • Ekstraksi dan transformasi pipeline input.

Host biasanya berjalan di CPU, bukan di chip akselerator; perangkat memanipulasi tensor pada chip akselerator.

L

Layers API (tf.layers)

#TensorFlow

TensorFlow API untuk membuat jaringan neural deep sebagai komposisi lapisan. Layers API memungkinkan Anda membuat berbagai jenis lapisan, seperti:

Layers API mengikuti konvensi Keras Layer API. Artinya, selain awalan yang berbeda, semua fungsi di Layers API memiliki nama dan tanda tangan yang sama dengan pasangannya di Keras Layers API.

S

mesh

#TensorFlow
#GoogleCloud

Dalam pemrograman paralel ML, istilah yang terkait dengan penetapan data dan model ke chip TPU, dan cara menentukan nilai ini yang akan di-sharding atau direplikasi.

Mesh adalah istilah kelebihan muatan yang dapat berarti salah satu dari hal berikut:

  • Tata letak fisik chip TPU.
  • Konstruksi logis abstrak untuk memetakan data dan model ke chip TPU.

Dalam kedua kasus tersebut, mesh ditentukan sebagai bentuk.

metrik

#TensorFlow

Statistik yang penting bagi Anda.

Tujuan adalah metrik yang dicoba dioptimalkan oleh sistem machine learning.

N

node (grafik TensorFlow)

#TensorFlow

Operasi dalam grafik TensorFlow.

O

operasi (op)

#TensorFlow

Di TensorFlow, prosedur apa pun yang membuat, memanipulasi, atau menghancurkan Tensor. Misalnya, perkalian matriks adalah operasi yang menggunakan dua Tensor sebagai input dan menghasilkan satu Tensor sebagai output.

P

Server Parameter (PS)

#TensorFlow

Tugas yang melacak parameter model dalam setelan terdistribusi.

Q

antrean

#TensorFlow

Operasi TensorFlow yang mengimplementasikan struktur data antrean. Biasanya digunakan di I/O.

R

urutan (Tensor)

#TensorFlow

Jumlah dimensi dalam Tensor. Misalnya, skalar memiliki peringkat 0, vektor memiliki peringkat 1, dan matriks memiliki peringkat 2.

Harap bedakan dengan peringkat (ordinalitas).

direktori utama

#TensorFlow

Direktori yang Anda tentukan untuk menghosting subdirektori dari checkpoint TensorFlow dan file peristiwa dari beberapa model.

M

SavedModel

#TensorFlow

Format yang direkomendasikan untuk menyimpan dan memulihkan model TensorFlow. SaveModel adalah format serialisasi yang dapat dipulihkan tanpa bahasa, yang memungkinkan sistem dan alat tingkat lebih tinggi untuk memproduksi, mengonsumsi, dan mengubah model TensorFlow.

Lihat bab Menyimpan dan Memulihkan di Panduan Programmer TensorFlow untuk detail lengkap.

Hemat

#TensorFlow

Objek TensorFlow yang bertanggung jawab untuk menyimpan checkpoint model.

shard

#TensorFlow
#GoogleCloud

Pembagian logis dari set pelatihan atau model. Biasanya, beberapa proses membuat shard dengan membagi contoh atau parameter menjadi potongan yang biasanya berukuran sama. Setiap shard kemudian ditetapkan ke mesin yang berbeda.

Sharding model disebut paralelisme model; sharding data disebut paralelisme data.

ringkasan

#TensorFlow

Di TensorFlow, nilai atau kumpulan nilai yang dihitung pada langkah tertentu, biasanya digunakan untuk melacak metrik model selama pelatihan.

T

Tensor

#TensorFlow

Struktur data utama dalam program TensorFlow. Tensor adalah struktur data dimensi N (di mana N dapat berukuran sangat besar), biasanya berupa skalar, vektor, atau matriks. Elemen Tensor dapat menyimpan nilai bilangan bulat, floating point, atau string.

TensorBoard

#TensorFlow

Dasbor yang menampilkan ringkasan yang disimpan selama eksekusi satu atau beberapa program TensorFlow.

TensorFlow

#TensorFlow

Platform machine learning berskala besar dan terdistribusi. Istilah ini juga mengacu pada lapisan API dasar di stack TensorFlow, yang mendukung komputasi umum pada grafik aliran data.

Meskipun TensorFlow terutama digunakan untuk machine learning, Anda juga dapat menggunakan TensorFlow untuk tugas non-ML yang memerlukan komputasi numerik menggunakan grafik dataflow.

Playground TensorFlow

#TensorFlow

Program yang memvisualisasikan pengaruh hyperparameter yang berbeda terhadap pelatihan model (terutama jaringan neural). Buka http://playground.tensorflow.org untuk bereksperimen dengan TensorFlow Playground.

Penayangan TensorFlow

#TensorFlow

Platform untuk men-deploy model terlatih dalam produksi.

Unit Pemrosesan Tensor (TPU)

#TensorFlow
#GoogleCloud

Sirkuit terintegrasi khusus aplikasi (ASIC) yang mengoptimalkan performa beban kerja machine learning. ASIC ini di-deploy sebagai beberapa chip TPU di perangkat TPU.

Peringkat Tensor

#TensorFlow

Lihat peringkat (Tensor).

Bentuk Tensor

#TensorFlow

Jumlah elemen yang terdapat dalam Tensor dalam berbagai dimensi. Misalnya, Tensor [5, 10] memiliki bentuk 5 dalam satu dimensi dan 10 dalam dimensi lain.

Ukuran Tensor

#TensorFlow

Jumlah total skalar yang dimiliki oleh Tensor. Misalnya, Tensor [5, 10] memiliki ukuran 50.

tf.Contoh

#TensorFlow

Buffering protokol standar yang digunakan untuk menjelaskan data input untuk pelatihan atau inferensi model machine learning.

tf.keras

#TensorFlow

Implementasi Keras yang terintegrasi ke TensorFlow.

TPU

#TensorFlow
#GoogleCloud

Singkatan untuk Tensor Processing Unit.

Chip TPU

#TensorFlow
#GoogleCloud

Akselerator aljabar linear yang dapat diprogram dengan memori bandwidth tinggi pada chip yang dioptimalkan untuk beban kerja machine learning. Beberapa chip TPU di-deploy di perangkat TPU.

Perangkat TPU

#TensorFlow
#GoogleCloud

Papan sirkuit cetak (PCB) dengan beberapa chip TPU, antarmuka jaringan bandwidth tinggi, dan hardware pendingin sistem.

Master TPU

#TensorFlow
#GoogleCloud

Proses koordinasi pusat yang berjalan pada mesin host yang mengirim dan menerima data, hasil, program, performa, dan informasi kesehatan sistem ke pekerja TPU. Master TPU juga mengelola penyiapan dan penonaktifan perangkat TPU.

Node TPU

#TensorFlow
#GoogleCloud

Resource TPU di Google Cloud Platform dengan jenis TPU tertentu. Node TPU terhubung ke Jaringan VPC Anda dari jaringan VPC peer. Node TPU adalah resource yang ditentukan dalam Cloud TPU API.

Pod TPU

#TensorFlow
#GoogleCloud

Konfigurasi spesifik dari perangkat TPU di pusat data Google. Semua perangkat dalam pod TPU terhubung satu sama lain melalui jaringan khusus berkecepatan tinggi. TPU Pod adalah konfigurasi terbesar dari perangkat TPU yang tersedia untuk versi TPU tertentu.

Resource TPU

#TensorFlow
#GoogleCloud

Entitas TPU di Google Cloud Platform yang Anda buat, kelola, atau gunakan. Misalnya, Node TPU dan jenis TPU adalah resource TPU.

Potongan TPU

#TensorFlow
#GoogleCloud

Slice TPU adalah bagian pecahan dari perangkat TPU dalam Pod TPU. Semua perangkat dalam bagian TPU terhubung satu sama lain melalui jaringan khusus berkecepatan tinggi.

Jenis TPU

#TensorFlow
#GoogleCloud

Konfigurasi satu atau beberapa perangkat TPU dengan versi hardware TPU tertentu. Anda memilih jenis TPU saat membuat node TPU di Google Cloud Platform. Misalnya, jenis TPU v2-8 adalah perangkat TPU v2 tunggal dengan 8 core. Jenis TPU v3-2048 memiliki 256 perangkat TPU v3 berjaringan dan total 2048 core. Jenis TPU adalah resource yang ditetapkan dalam Cloud TPU API.

Pekerja TPU

#TensorFlow
#GoogleCloud

Proses yang berjalan di mesin host dan menjalankan program machine learning di perangkat TPU.