หน้านี้มีคําใน TensorFlow สําหรับอภิธานศัพท์ทั้งหมด คลิกที่นี่
C
Cloud TPU
ตัวเร่งฮาร์ดแวร์พิเศษที่ออกแบบมาเพื่อช่วยเร่งความเร็วของแมชชีนเลิร์นนิงใน Google Cloud Platform
D
Dataset API (tf.data)
API ระดับสูงของ TensorFlow สําหรับการอ่านข้อมูลและการเปลี่ยนให้อยู่ในรูปแบบที่อัลกอริทึมของแมชชีนเลิร์นนิงต้องการ
วัตถุ tf.data.Dataset
แสดงถึงลําดับขององค์ประกอบ โดยที่องค์ประกอบแต่ละรายการจะมี Tensor อย่างน้อยหนึ่งองค์ประกอบ ออบเจ็กต์ tf.data.Iterator
มอบสิทธิ์เข้าถึงเอลิเมนต์ของ Dataset
โปรดดูรายละเอียดเกี่ยวกับ Dataset API ที่ tf.data: สร้างไปป์ไลน์อินพุต TensorFlow ในคู่มือของโปรแกรม TensorFlow
อุปกรณ์
หมวดหมู่ของฮาร์ดแวร์ที่เรียกใช้เซสชัน TensorFlow ได้ ซึ่งรวมถึง CPU, GPU และ TPU
E
การดําเนินการที่กระฉับกระเฉง
สภาพแวดล้อมการเขียนโปรแกรมของ TensorFlow ที่การดําเนินการจะทํางานทันที ในทางตรงกันข้าม การดําเนินการในการเรียกใช้กราฟจะไม่ทํางานจนกว่าจะได้รับการประเมินอย่างชัดแจ้ง การดําเนินการที่กระตือรือร้นเป็นอินเทอร์เฟซที่จําเป็น ซึ่งคล้ายกับโค้ดในภาษาโปรแกรมส่วนใหญ่ โดยทั่วไปโปรแกรมการเรียกใช้ที่กระตือรือร้นจะ แก้ไขข้อบกพร่องได้ง่ายกว่าโปรแกรมการเรียกใช้กราฟ
เครื่องมือประมาณ
TensorFlow API ที่เลิกใช้งานแล้ว ใช้ tf.keras แทนเครื่องมือประมาณ
F
Feature Engineering
ซึ่งเป็นกระบวนการที่เกี่ยวข้องกับขั้นตอนต่อไปนี้
- การพิจารณาว่าฟีเจอร์ใดเป็นประโยชน์ ในการฝึกโมเดล
- การแปลงข้อมูลดิบจากชุดข้อมูล ให้เป็นฟีเจอร์เหล่านี้ที่มีประสิทธิภาพ
ตัวอย่างเช่น คุณอาจมองว่า temperature
อาจเป็นฟีเจอร์ที่มีประโยชน์ จากนั้น คุณอาจทดสอบด้วยที่เก็บข้อมูลเพื่อเพิ่มประสิทธิภาพสิ่งที่โมเดลเรียนรู้ได้จากtemperature
ช่วงต่างๆ
บางครั้งวิศวกรรมฟีเจอร์เรียกว่าการแยกฟีเจอร์
ข้อมูลจําเพาะของฟีเจอร์
อธิบายข้อมูลที่จําเป็นเพื่อดึงข้อมูล features จากบัฟเฟอร์โปรโตคอล tf.Example เนื่องจากบัฟเฟอร์โปรโตคอล tf.เป็นเพียงคอนเทนเนอร์สําหรับข้อมูล คุณต้องระบุข้อมูลต่อไปนี้
- ข้อมูลที่จะแตก (คีย์ของจุดสนใจ)
- ประเภทข้อมูล (เช่น float หรือ int)
- ความยาว (คงที่หรือแปรผัน)
G
กราฟ
ใน TensorFlow ข้อกําหนดเฉพาะในการประมวลผล โหนดในกราฟแสดงการดําเนินการ ขอบจะเปลี่ยนและแสดงการผ่านของผลลัพธ์ (Tensor) เป็นโอเปอแรนด์กับการดําเนินการอื่น ใช้ TensorBoard เพื่อแสดงภาพกราฟ
การเรียกใช้กราฟ
สภาพแวดล้อมการเขียนโปรแกรม TensorFlow ที่โปรแกรมสร้างกราฟก่อน จากนั้นจึงเรียกใช้กราฟนั้นบางส่วนหรือทั้งหมด การดําเนินการกราฟเป็นโหมดการดําเนินการเริ่มต้นใน TensorFlow 1.x
ตรงข้ามกับการดําเนินการที่กระตือรือร้น
L
เลเยอร์ API (tf.layers)
TensorFlow API สําหรับการสร้างเครือข่ายระบบประสาทเทียมระดับลึกที่เป็นองค์ประกอบของเลเยอร์ เลเยอร์ API ช่วยให้คุณสร้าง เลเยอร์ ประเภทต่างๆ ได้ เช่น:
tf.layers.Dense
สําหรับเลเยอร์ที่เชื่อมต่อโดยสมบูรณ์tf.layers.Conv2D
สําหรับเลเยอร์ที่มีการปฏิวัติ
เลเยอร์ API จะเป็นไปตามแบบแผน Keras เลเยอร์ นอกเหนือจากคํานําหน้าอื่นแล้ว ทุกฟังก์ชันใน เลเยอร์ API มีชื่อและลายเซ็นเหมือนกับชื่อที่ตรงกันใน Keras layers API
M
เมตริก
สถิติที่คุณสนใจ
วัตถุประสงค์คือเมตริกที่ระบบแมชชีนเลิร์นนิงพยายามที่จะเพิ่มประสิทธิภาพ
N
โหนด (กราฟ TensorFlow)
การดําเนินการในกราฟ TensorFlow
O
การดําเนินการ (op)
ใน TensorFlow กระบวนการต่างๆ ที่สร้าง บิดเบือน หรือทําลาย Tensor เช่น การคูณเมทริกซ์คือการดําเนินการที่ใช้ Tensor 2 ตัวเป็นอินพุตและสร้าง Tensor 1 รายการเป็นเอาต์พุต
P
เซิร์ฟเวอร์พารามิเตอร์ (PS)
งานที่ติดตามพารามิเตอร์ของโมเดลในการตั้งค่าแบบกระจาย
Q
คิว
การดําเนินการของ TensorFlow ที่ใช้โครงสร้างข้อมูลคิว มักใช้ใน I/O
ขวา
อันดับ (Tensor)
จํานวนมิติข้อมูลใน Tensor เช่น สเกลาร์มีอันดับเป็น 0 เวกเตอร์มีอันดับ 1 และเมทริกซ์มีอันดับ 2
อย่าสับสนกับอันดับ (ลําดับ)
ไดเรกทอรีราก
ไดเรกทอรีที่คุณระบุสําหรับโฮสติ้งไดเรกทอรีย่อยของจุดตรวจสอบ TensorFlow และไฟล์กิจกรรมของหลายโมเดล
S
SavedModel
รูปแบบที่แนะนําสําหรับการบันทึกและกู้คืนโมเดล TensorFlow SaveModel เป็นรูปแบบการเรียงอันดับใหม่ที่กู้คืนได้ระหว่างภาษา ซึ่งทําให้ระบบและเครื่องมือระดับสูงสร้าง ใช้งาน และเปลี่ยนรูปแบบ TensorFlow ได้
ดูรายละเอียดทั้งหมดได้ที่ส่วนการบันทึกและคืนค่าในคู่มือโปรแกรม TensorFlow
ประหยัด
ออบเจ็กต์ TensorFlow ซึ่งมีหน้าที่บันทึกจุดตรวจสอบโมเดล
ค่าสรุป
ใน TensorFlow ค่าหรือชุดของค่าที่คํานวณที่ขั้นตอนมักจะใช้ในการติดตามเมตริกโมเดลระหว่างการฝึกทํางาน
T
Tensor
โครงสร้างข้อมูลหลักในโปรแกรม TensorFlow Tensor เป็นโครงสร้างข้อมูล N ขนาด (ที่ N อาจมีขนาดใหญ่มาก) ซึ่งมักจะเป็นสเกลาร์ เวกเตอร์ หรือเมทริกซ์ องค์ประกอบของ Tensor สามารถมีค่าจํานวนเต็ม จุดลอย หรือสตริง
TensorBoard
หน้าแดชบอร์ดที่แสดงสรุปที่บันทึกไว้ระหว่างการดําเนินการของโปรแกรม TensorFlow อย่างน้อย 1 โปรแกรม
TensorFlow
แพลตฟอร์มแมชชีนเลิร์นนิงขนาดใหญ่ ซึ่งมีการกระจายตัว คํานี้ยังหมายถึงเลเยอร์ API พื้นฐานในกลุ่ม TensorFlow ที่รองรับการคํานวณทั่วไปในกราฟข้อมูล
แม้ว่า TensorFlow จะใช้สําหรับแมชชีนเลิร์นนิงเป็นหลัก แต่คุณก็อาจใช้ TensorFlow สําหรับงานที่ไม่ใช่ ML ที่ต้องใช้การคํานวณตัวเลขโดยใช้กราฟโฟลว์ข้อมูล
สนามเด็กเล่น TensorFlow
โปรแกรมที่แสดงให้เห็นว่า hyperparameters ที่ต่างกันส่งผลต่อการฝึกโมเดล (เครือข่ายโครงข่ายประสาท) อย่างไร ไปที่ http://playground.tensorflow.org เพื่อทดสอบกับ TensorFlow Playground
การแสดงโฆษณา TensorFlow
แพลตฟอร์มที่ทําให้โมเดลที่ผ่านการฝึกใช้งานใช้งานได้จริง
Tensor Processing Unit (TPU)
วงจรรวมเฉพาะแอปพลิเคชัน (ASIC) ที่ช่วยเพิ่มประสิทธิภาพของภาระงานของแมชชีนเลิร์นนิง เราทําให้ ASIC เหล่านี้ใช้งานได้เป็นชิป TPU หลายรายการในอุปกรณ์ TPU
การจัดอันดับ Tensor
รูปร่าง Tensor
จํานวนองค์ประกอบที่ Tensor ประกอบด้วยมิติข้อมูลต่างๆ ตัวอย่างเช่น [5, 10] Tensor มีรูปแบบ 5 มิติในมิติข้อมูลหนึ่งและอีก 10 รายการอยู่ในอีกมิติข้อมูลหนึ่ง
ขนาด Tensor
จํานวนสเกลาร์ทั้งหมดที่ Tensor ประกอบด้วย เช่น [5, 10] Tensor มีขนาด 50
ตัวอย่าง
บัฟเฟอร์โปรโตคอลมาตรฐานสําหรับอธิบายข้อมูลอินพุตสําหรับการฝึกหรือการอนุมานโมเดลแมชชีนเลิร์นนิง
Tf.keras
การใช้ Keras ผสานรวมใน TensorFlow
TPU
ตัวย่อของหน่วยประมวลผล Tensor
ชิป TPU
Accelerator พีชคณิตเชิงเส้นในการเขียนโปรแกรมพร้อมหน่วยความจําแบนด์วิดท์สูงแบบชิปที่เพิ่มประสิทธิภาพสําหรับภาระงานของแมชชีนเลิร์นนิง ชิป TPU หลายรายการจะทําให้ใช้งานได้ในอุปกรณ์ TPU
อุปกรณ์ TPU
แผ่นวงจรพิมพ์ (PCB) ที่มีชิป TPU หลายอินเทอร์เฟซเครือข่ายที่มีแบนด์วิดท์สูงและฮาร์ดแวร์ระบายความร้อนระบบ
TPU ต้นแบบ
กระบวนการประสานงานส่วนกลางที่ทํางานในเครื่องโฮสต์ซึ่งจะรับและส่งข้อมูล ผลลัพธ์ โปรแกรม ประสิทธิภาพ และข้อมูลประสิทธิภาพของระบบไปยังผู้ปฏิบัติงาน TPU ต้นแบบ TPU ยังจัดการการตั้งค่าและการปิดอุปกรณ์ TPU ด้วย
โหนด TPU
ทรัพยากร TPU บน Google Cloud Platform ที่มีประเภท TPU เฉพาะ โหนด TPU เชื่อมต่อกับเครือข่าย VPC จากเครือข่าย VPC เพียร์ โหนด TPU เป็นทรัพยากรที่กําหนดไว้ใน Cloud TPU API
พ็อด TPU
การกําหนดค่าเฉพาะของอุปกรณ์ TPU ในศูนย์ข้อมูล Google อุปกรณ์ทั้งหมดในพ็อด TPU เชื่อมต่อเข้าด้วยกัน ผ่านเครือข่ายความเร็วสูงโดยเฉพาะ พ็อด TPU เป็นการกําหนดค่าที่ใหญ่ที่สุดของอุปกรณ์ TPU ที่ใช้ได้กับเวอร์ชัน TPU ที่เจาะจง
ทรัพยากร TPU
เอนทิตี TPU ใน Google Cloud Platform ที่คุณสร้าง จัดการ หรือใช้งาน เช่น โหนด TPU และประเภท TPU เป็นทรัพยากร TPU
ชิ้นส่วน TPU
ชิ้นส่วน TPU เป็นเศษส่วนของอุปกรณ์ TPU ในพ็อด TPU อุปกรณ์ทั้งหมดในชิ้นส่วน TPU เชื่อมต่อเข้าด้วยกัน ผ่านเครือข่ายความเร็วสูงโดยเฉพาะ
ประเภท TPU
การกําหนดค่าของอุปกรณ์ TPU 1 เครื่องขึ้นไปที่มีฮาร์ดแวร์เวอร์ชัน TPU เฉพาะ คุณจะเลือกประเภทของ TPU ได้เมื่อสร้างโหนด TPU ใน Google Cloud Platform เช่น v2-8
ประเภท TPU เป็นอุปกรณ์ TPU v2 เครื่องเดียวที่มี 8 คอร์ ประเภท TPU v3-2048
มีอุปกรณ์ TPU v3 จํานวน 256 เครื่องที่มีเครือข่าย รวมทั้งหมด 2048 แกน ประเภท TPU เป็นทรัพยากรที่กําหนดไว้ใน Cloud TPU API
ผู้ปฏิบัติงาน TPU
กระบวนการที่ทํางานบนเครื่องโฮสต์และดําเนินการโปรแกรมแมชชีนเลิร์นนิงในอุปกรณ์ TPU