इस पेज में TensorFlow के ग्लॉसरी के शब्द हैं. शब्दावली के सभी शब्दों के लिए, यहां क्लिक करें.
B
बैच का अनुमान
एक से ज़्यादा बिना लेबल वाले उदाहरणों के अनुमानों का अनुमान लगाने की प्रोसेस को छोटे सबसेट (बैच") में बांटा जाता है.
बैच का अनुमान, एसीएलरेटर चिप की साथ-साथ चलने वाली सुविधाओं का फ़ायदा ले सकता है. इसका मतलब है कि कई ऐक्सेलरेटर, एक साथ आए बिना लेबल वाले उदाहरणों के अलग-अलग बैच के लिए अनुमान की जांच कर सकते हैं. इससे हर सेकंड अनुमान की संख्या में बहुत ज़्यादा बढ़ोतरी होती है.
C
Cloud TPU
यह एक खास हार्डवेयर ऐक्सेलरेटर है, जिसे Google Cloud Platform पर काम करने वाले मशीन लर्निंग वर्कलोड की स्पीड बढ़ाने के लिए डिज़ाइन किया गया है.
D
डेटासेट एपीआई (tf.data)
हाई-लेवल TensorFlow एपीआई को डेटा पढ़ने और फ़ॉर्मैट में बदलने के लिए, जो मशीन लर्निंग एल्गोरिदम के लिए ज़रूरी है.
tf.data.Dataset
ऑब्जेक्ट, एलिमेंट के क्रम को दिखाता है. इसमें हर एलिमेंट में एक या एक से ज़्यादा टेंज़र होते हैं. tf.data.Iterator
ऑब्जेक्ट, Dataset
के एलिमेंट का ऐक्सेस देता है.
डेटासेट एपीआई के बारे में ज़्यादा जानकारी के लिए, TensorFlow प्रोग्रामर की गाइड में, tf.data: TensorFlow इनपुट पाइपलाइन देखें.
डिवाइस
नीचे दी गई दो संभावित परिभाषाओं के साथ ओवरलोड हुआ शब्द:
- हार्डवेयर की एक कैटगरी, जो TensorFlow का सेशन चला सकती है. इसमें सीपीयू, जीपीयू, और TPU शामिल हैं.
- एमएल मॉडल को एसीलेटर चिप (जीपीयू या टीपीयू) पर ट्रेनिंग देते समय, सिस्टम का वह हिस्सा जो असल में टेंसर और एम्बेड करने में हेर-फेर करता है. डिवाइस, एक्सेलरेट चिप पर काम करता है. इसके उलट, होस्ट आम तौर पर सीपीयू पर चलता है.
E
ईगर प्रोसेस
TensorFlow प्रोग्रामिंग का ऐसा माहौल जिसमें कार्रवाई तुरंत चलती है. इसके उलट, ग्राफ़ एक्ज़ीक्यूशन में किए गए काम तब तक नहीं चलते, जब तक उनका आकलन साफ़ तौर पर नहीं किया जाता है. ईगर एक्ज़ीक्यूट करने का तरीका इंपीरटिव इंटरफ़ेस होता है, ठीक उसी तरह जैसे ज़्यादातर प्रोग्रामिंग लैंग्वेज के कोड में. ईगर एक्ज़ीक्यूट प्रोग्राम को आम तौर पर ग्राफ़ एक्ज़ीक्यूशन प्रोग्राम की तुलना में डीबग करना बहुत आसान होता है.
एस्टीमेटर
रोके गए TensorFlow एपीआई. इंडेक्स करने के बजाय, tf.keras का इस्तेमाल करें.
शुक्र
फ़ीचर इंजीनियरिंग
ऐसी प्रक्रिया जिसमें ये चरण शामिल हैं:
- किसी मॉडल की ट्रेनिंग के लिए, यह तय करना कि कौनसी सुविधाएं मददगार हो सकती हैं.
- डेटासेट से रॉ डेटा को उन सुविधाओं के बेहतर वर्शन में बदलना.
उदाहरण के लिए, यह पता चल सकता है कि temperature
आपके लिए काम की सुविधा हो सकती है. इसके बाद, बकेटिंग
का इस्तेमाल करके यह ऑप्टिमाइज़ करें कि मॉडल अलग-अलग temperature
रेंज से क्या सीख सकता है.
फ़ीचर इंजीनियरिंग को कभी-कभी सुविधा निकालना कहा जाता है.
सुविधा की खास जानकारी
उस जानकारी के बारे में बताता है जो tf.Example प्रोटोकॉल बफ़र से सुविधाओं का डेटा निकालने के लिए ज़रूरी है. tf.Example प्रोटोकॉल बफ़र सिर्फ़ डेटा के लिए एक कंटेनर होता है. इसलिए, आपको नीचे दी गई जानकारी देनी होगी:
- एक्सट्रैक्ट किया जाने वाला डेटा (यानी सुविधाओं के लिए कुंजी)
- डेटा टाइप (उदाहरण के लिए, फ़्लोट या पूर्णांक)
- लंबाई (तय या वैरिएबल)
G
ग्राफ़
TensorFlow में, कंप्यूटेशन से जुड़ी खास बातें. ग्राफ़ में नोड कार्रवाई का प्रतिनिधित्व करते हैं. किनारे तब भेजे जाते हैं जब वे किसी ऑपरेशन (Tensor) के नतीजे को ऑपरेशन के तौर पर और दूसरे ऑपरेशन में पास करते हैं. किसी ग्राफ़ को विज़ुअलाइज़ करने के लिए, TensorBoard का इस्तेमाल करें.
ग्राफ़ एक्ज़ीक्यूशन
ऐसे TensorFlow प्रोग्रामिंग एनवायरमेंट में जो पहले ग्राफ़ बनाता है और फिर उस ग्राफ़ के सभी या कुछ हिस्से बनाता है. TensorFlow 1.x में ग्राफ़ एक्ज़ीक्यूशन एक डिफ़ॉल्ट एक्ज़ीक्यूशन मोड है.
ईयर एक्ज़ीक्यूट के उलट करें.
H
होस्ट
एमएल मॉडल को ACelerator चिप (जीपीयू या TPU) पर ट्रेनिंग देने के दौरान, सिस्टम का वह हिस्सा होना चाहिए जो इन दोनों को कंट्रोल करता है:
- कोड का कुल फ़्लो.
- इनपुट पाइपलाइन का एक्सट्रैक्शन और बदलाव.
होस्ट आम तौर पर सीपीयू पर काम करता है, न कि एक्सेलेरेटर चिप पर. डिवाइस, एक्ज़ेलर चिप पर टेंसर में हेर-फेर करता है.
L
लेयर एपीआई (tf.layers)
लेयर के स्ट्रक्चर के तौर पर एक डीप न्यूरल नेटवर्क बनाने के लिए, TensorFlow एपीआई. लेयर एपीआई की मदद से, अलग-अलग तरह की लेयर बनाई जा सकती हैं, जैसे:
- पूरी तरह से कनेक्ट की गई लेयर के लिए
tf.layers.Dense
. tf.layers.Conv2D
, लिस्टल लेयर के लिए.
लेयर एपीआई, Keras लेयर एपीआई कन्वेंशन का पालन करता है. इसका मतलब है कि अलग-अलग प्रीफ़िक्स के अलावा, लेयर एपीआई के सभी फ़ंक्शन के नाम और हस्ताक्षर, केरास लेयर एपीआई के नाम से मिलते-जुलते होते हैं.
सोम
मेश
एमएल पैरलल प्रोग्रामिंग में, डेटा और मॉडल को TPU चिप में असाइन करने और इन वैल्यू को शार्ड करने या दोहराए जाने का तरीका तय करने के साथ इस्तेमाल होने वाला शब्द.
मेश एक ओवरलोडेड शब्द है जिसका मतलब इनमें से कोई एक हो सकता है:
- टीपीयू चिप का फ़िज़िकल लेआउट.
- डेटा और मॉडल को TPU चिप में मैप करने के लिए ऐब्सट्रैक्ट लॉजिकल कंस्ट्रक्शन.
दोनों ही मामलों में, एक मेश आकार के रूप में बताया जाता है.
मीट्रिक
वह आंकड़े जो आपके लिए अहम है.
मकसद एक ऐसी मेट्रिक है जो मशीन लर्निंग सिस्टम को ऑप्टिमाइज़ करने की कोशिश करती है.
N
नोड (TensorFlow ग्राफ़)
TensorFlow का ग्राफ़ में मौजूद कार्रवाई.
O
ऑपरेशन (ऑप)
TensorFlow का कोई भी तरीका, जो Tensor को बनाता है, उसे प्रोसेस करता है या खत्म करता है. उदाहरण के लिए, मैट्रिक्स गुणा एक ऐसी कार्रवाई है जो दो Tensor को इनपुट के रूप में लेती है और एक Tensor को आउटपुट के रूप में जनरेट करती है.
P
पैरामीटर सर्वर (पीएस)
ऐसी नौकरी जो मॉडल की गई पैरामीटर को डिस्ट्रिब्यूटेड सेटिंग में ट्रैक करती है.
Q
सूची
ऐसा TensorFlow ऑपरेशन जो सूची का डेटा स्ट्रक्चर लागू करता है. आम तौर पर, I/O में इस्तेमाल किया जाता है.
आर
रैंक (टेंसर)
टेंसर में मौजूद डाइमेंशन की संख्या. उदाहरण के लिए, किसी स्केलर का रैंक 0 है, जबकि वेक्टर की रैंक 1 है और मैट्रिक्स की रैंक 2 है.
रैंक (आम तौर पर होने वाली) से भ्रम की स्थिति में नहीं.
रूट डायरेक्ट्री
आपकी ओर से TensorFlow चेकपॉइंट और कई मॉडल की इवेंट फ़ाइलों को होस्ट करने के लिए बताई गई डायरेक्ट्री.
रवि
सेव मॉडल
TensorFlow मॉडल को सेव करने और वापस पाने के लिए सुझाया गया फ़ॉर्मैट. सेव किए गए मॉडल में, एक लैंग्वेज न्यूट्रल, रिकवर होने वाला सीरियलाइज़ेशन फ़ॉर्मैट होता है. यह TensorFlow मॉडल बनाने, उनका इस्तेमाल करने, और उन्हें बदलने के लिए बेहतरीन सिस्टम और टूल उपलब्ध कराता है.
पूरी जानकारी के लिए, TensorFlow प्रोग्रामर की गाइड में, चैप्टर सेव करने और पहले जैसा करने की सुविधा देखें.
सेवर
TensorFlow ऑब्जेक्ट मॉडल के चेकपॉइंट सेव करने के लिए ज़िम्मेदार होता है.
शार्ड
ट्रेनिंग सेट या मॉडल का लॉजिकल डिवीज़न. आम तौर पर, कुछ प्रक्रिया शार्ड बनाने के लिए उदाहरण या पैरामीटर को छोटे-छोटे हिस्सों में बांट देती है. इसके बाद, हर शार्ड को अलग मशीन को असाइन किया जाता है.
किसी मॉडल को शेयर करने को मॉडल पैरललिज़्म कहा जाता है. शार्डिंग डेटा को डेटा पैरललिज़्म कहा जाता है.
खास जानकारी
TensorFlow में, किसी खास चरण में तय की गई वैल्यू या वैल्यू का सेट, जिसे आम तौर पर ट्रेनिंग के दौरान ट्रैकिंग मॉडल मेट्रिक के लिए इस्तेमाल किया जाता है.
गुरु
टेंसर
TensorFlow प्रोग्राम का मुख्य डेटा स्ट्रक्चर. टेंसर, N-डाइमेंशन वाले (जहां N बहुत बड़ा हो सकता है) डेटा स्ट्रक्चर होते हैं. आम तौर पर, ये स्केलर, वेक्टर, या मैट्रिक्स होते हैं. टेनसॉर के एलिमेंट में पूर्णांक, फ़्लोटिंग-पॉइंट या स्ट्रिंग वैल्यू हो सकती हैं.
TensorBoard
एक या एक से ज़्यादा TensorFlow प्रोग्राम के चलने के दौरान सेव की गई खास जानकारी दिखाने वाला डैशबोर्ड.
TensorFlow
बड़े पैमाने पर उपलब्ध कराया गया, मशीन लर्निंग प्लैटफ़ॉर्म. यह शब्द टेंसरफ़्लो स्टैक में बेस एपीआई लेयर के बारे में भी बताता है, जो डेटाफ़्लो ग्राफ़ पर सामान्य कंप्यूटेशन की सुविधा देता है.
हालांकि, TensorFlow का मुख्य तौर पर इस्तेमाल मशीन लर्निंग के लिए किया जाता है, लेकिन आप उन गैर-एमएल टास्क के लिए भी TensorFlow का इस्तेमाल कर सकते हैं जिन्हें डेटाफ़्लो ग्राफ़ का इस्तेमाल करके न्यूमेरिक कंप्यूटेशन की ज़रूरत होती है.
TensorFlow प्लेग्राउंड
एक प्रोग्राम, जो यह दिखाता है कि अलग-अलग हाइपरपैरामीटर, मॉडल (मुख्य तौर पर न्यूरल नेटवर्क) की ट्रेनिंग पर कैसे असर डालते हैं. TensorFlow Playground के साथ प्रयोग करने के लिए, http://playground.tesorflow.org पर जाएं.
TensorFlow सर्विंग
एक ऐसा प्लैटफ़ॉर्म जो प्रोडक्शन में प्रशिक्षित मॉडल को डिप्लॉय करता है.
टेंसर प्रोसेसिंग यूनिट (TPU)
ऐप्लिकेशन-आधारित इंटिग्रेटेड सर्किट (ASIC) जो मशीन लर्निंग के वर्कलोड की परफ़ॉर्मेंस को ऑप्टिमाइज़ करता है. इन एएसआईसी को टीपीयू डिवाइस पर टीपीयू चिप के तौर पर डिप्लॉय किया जाता है.
टेंसर रैंक
रैंक (Tensor) देखें.
Tenser का आकार
अलग-अलग डाइमेंशन में टेंसर एलिमेंट की संख्या. उदाहरण के लिए, [5, 10] टेंसर का एक डाइमेंशन 5 में और दूसरा डाइमेंशन 10 होता है.
Tenser का साइज़
टेंसर में मौजूद स्केलर की कुल संख्या. उदाहरण के लिए, [5, 10] Tensor का साइज़ 50 है.
tf.उदाहरण
मशीन लर्निंग मॉडल ट्रेनिंग या अनुमान के लिए, इनपुट डेटा की जानकारी देने का स्टैंडर्ड प्रोटोकॉल बफ़र.
tf.keras
KerasTensorFlow का इंटिग्रेटेड वर्शन
टीपीयू (TPU)
टेंसर प्रोसेसिंग यूनिट के लिए छोटा नाम.
टीपीयू चिप
एक प्रोग्रामेबल लीनियर बीजगणित वाला ऐक्सेलरेटर, जो चिप में हाई बैंडविड्थ मेमोरी होता है. इसे मशीन लर्निंग के वर्कलोड के लिए ऑप्टिमाइज़ किया जाता है. टीपीयू डिवाइस पर कई टीपीयू चिप जोड़े गए हैं.
टीपीयू डिवाइस
कई सारे TPU चिप, हाई बैंडविड्थ नेटवर्क इंटरफ़ेस, और सिस्टम कूलिंग हार्डवेयर के साथ, प्रिंट किया हुआ सर्किट बोर्ड (पीसीबी).
टीपीयू मास्टर
होस्ट मशीन पर चलने वाली एक सेंट्रल कोऑर्डिनेशन प्रोसेस, टीपीयू वर्कर को डेटा, नतीजे, प्रोग्राम, परफ़ॉर्मेंस, और सिस्टम की हेल्थ से जुड़ी जानकारी भेजती और भेजती है. TPU मास्टर, TPU डिवाइसों का सेटअप और शटडाउन भी मैनेज करता है.
TPU नोड
Google Cloud Platform पर मौजूद टीपीयू रिसॉर्स, जिसमें टीपीयू टाइप शामिल है. TPU नोड, किसी मिलते-जुलते ऐप्लिकेशन के VPC नेटवर्क से आपके VPC नेटवर्क से कनेक्ट होता है. टीपीयू नोड, Cloud TPU एपीआई में बताए गए रिसॉर्स हैं.
टीपीयू (TPU) पॉड
Google डेटा सेंटर में TPU डिवाइसों का खास कॉन्फ़िगरेशन. टीपीयू पॉड के सभी डिवाइस एक-दूसरे से जुड़े हुए हैं. यह डिवाइस हाई स्पीड नेटवर्क से जुड़े होते हैं. टीपीयू पॉड, टीपीयू डिवाइसों का सबसे बड़ा कॉन्फ़िगरेशन है, जो किसी खास टीपीयू वर्शन के लिए उपलब्ध है.
TPU संसाधन
Google Cloud Platform पर मौजूद TPU इकाई जिसे आप बनाते, मैनेज या इस्तेमाल करते हैं. उदाहरण के लिए, TPU नोड और TPU टाइप टीपीयू रिसॉर्स हैं.
टीपीयू स्लाइस
TPU स्लाइस, TPU डिवाइसों का कुछ हिस्सा होता है. यह हिस्सा TPU पॉड में होता है. टीपीयू स्लाइस में मौजूद सभी डिवाइस, हाई-स्पीड नेटवर्क की मदद से एक-दूसरे से जुड़े होते हैं.
TPU टाइप
किसी खास टीपीयू हार्डवेयर वर्शन के साथ, एक या एक से ज़्यादा TPU डिवाइसों का कॉन्फ़िगरेशन. Google Cloud Platform पर TPU नोड बनाते समय, आपने टीपीयू का टाइप चुना है. उदाहरण के लिए, v2-8
टीपीयू टाइप एक सिंगल TPU v2 डिवाइस है, जिसमें आठ कोर होते हैं. v3-2048
टीपीयू टाइप में, 256 नेटवर्क वाले TPU v3 डिवाइसों और कुल 2048 कोर होते हैं. टीपीयू टाइप, Cloud TPU एपीआई में बताए गए रिसॉर्स हैं.
टीपीयू वर्कर
यह एक ऐसी प्रोसेस है जो होस्ट मशीन पर चलती है. साथ ही, TPU डिवाइसों पर मशीन लर्निंग प्रोग्राम लागू करती है.