मशीन लर्निंग शब्दावली: TensorFlow

इस पेज में TensorFlow के ग्लॉसरी के शब्द हैं. शब्दावली के सभी शब्दों के लिए, यहां क्लिक करें.

B

बैच का अनुमान

#TensorFlow
#GoogleCloud

एक से ज़्यादा बिना लेबल वाले उदाहरणों के अनुमानों का अनुमान लगाने की प्रोसेस को छोटे सबसेट (बैच") में बांटा जाता है.

बैच का अनुमान, एसीएलरेटर चिप की साथ-साथ चलने वाली सुविधाओं का फ़ायदा ले सकता है. इसका मतलब है कि कई ऐक्सेलरेटर, एक साथ आए बिना लेबल वाले उदाहरणों के अलग-अलग बैच के लिए अनुमान की जांच कर सकते हैं. इससे हर सेकंड अनुमान की संख्या में बहुत ज़्यादा बढ़ोतरी होती है.

C

Cloud TPU

#TensorFlow
#GoogleCloud

यह एक खास हार्डवेयर ऐक्सेलरेटर है, जिसे Google Cloud Platform पर काम करने वाले मशीन लर्निंग वर्कलोड की स्पीड बढ़ाने के लिए डिज़ाइन किया गया है.

D

डेटासेट एपीआई (tf.data)

#TensorFlow

हाई-लेवल TensorFlow एपीआई को डेटा पढ़ने और फ़ॉर्मैट में बदलने के लिए, जो मशीन लर्निंग एल्गोरिदम के लिए ज़रूरी है. tf.data.Dataset ऑब्जेक्ट, एलिमेंट के क्रम को दिखाता है. इसमें हर एलिमेंट में एक या एक से ज़्यादा टेंज़र होते हैं. tf.data.Iterator ऑब्जेक्ट, Dataset के एलिमेंट का ऐक्सेस देता है.

डेटासेट एपीआई के बारे में ज़्यादा जानकारी के लिए, TensorFlow प्रोग्रामर की गाइड में, tf.data: TensorFlow इनपुट पाइपलाइन देखें.

डिवाइस

#TensorFlow
#GoogleCloud

नीचे दी गई दो संभावित परिभाषाओं के साथ ओवरलोड हुआ शब्द:

  1. हार्डवेयर की एक कैटगरी, जो TensorFlow का सेशन चला सकती है. इसमें सीपीयू, जीपीयू, और TPU शामिल हैं.
  2. एमएल मॉडल को एसीलेटर चिप (जीपीयू या टीपीयू) पर ट्रेनिंग देते समय, सिस्टम का वह हिस्सा जो असल में टेंसर और एम्बेड करने में हेर-फेर करता है. डिवाइस, एक्सेलरेट चिप पर काम करता है. इसके उलट, होस्ट आम तौर पर सीपीयू पर चलता है.

E

ईगर प्रोसेस

#TensorFlow

TensorFlow प्रोग्रामिंग का ऐसा माहौल जिसमें कार्रवाई तुरंत चलती है. इसके उलट, ग्राफ़ एक्ज़ीक्यूशन में किए गए काम तब तक नहीं चलते, जब तक उनका आकलन साफ़ तौर पर नहीं किया जाता है. ईगर एक्ज़ीक्यूट करने का तरीका इंपीरटिव इंटरफ़ेस होता है, ठीक उसी तरह जैसे ज़्यादातर प्रोग्रामिंग लैंग्वेज के कोड में. ईगर एक्ज़ीक्यूट प्रोग्राम को आम तौर पर ग्राफ़ एक्ज़ीक्यूशन प्रोग्राम की तुलना में डीबग करना बहुत आसान होता है.

एस्टीमेटर

#TensorFlow

रोके गए TensorFlow एपीआई. इंडेक्स करने के बजाय, tf.keras का इस्तेमाल करें.

शुक्र

फ़ीचर इंजीनियरिंग

#fundamentals
#TensorFlow

ऐसी प्रक्रिया जिसमें ये चरण शामिल हैं:

  1. किसी मॉडल की ट्रेनिंग के लिए, यह तय करना कि कौनसी सुविधाएं मददगार हो सकती हैं.
  2. डेटासेट से रॉ डेटा को उन सुविधाओं के बेहतर वर्शन में बदलना.

उदाहरण के लिए, यह पता चल सकता है कि temperature आपके लिए काम की सुविधा हो सकती है. इसके बाद, बकेटिंग का इस्तेमाल करके यह ऑप्टिमाइज़ करें कि मॉडल अलग-अलग temperature रेंज से क्या सीख सकता है.

फ़ीचर इंजीनियरिंग को कभी-कभी सुविधा निकालना कहा जाता है.

सुविधा की खास जानकारी

#TensorFlow

उस जानकारी के बारे में बताता है जो tf.Example प्रोटोकॉल बफ़र से सुविधाओं का डेटा निकालने के लिए ज़रूरी है. tf.Example प्रोटोकॉल बफ़र सिर्फ़ डेटा के लिए एक कंटेनर होता है. इसलिए, आपको नीचे दी गई जानकारी देनी होगी:

  • एक्सट्रैक्ट किया जाने वाला डेटा (यानी सुविधाओं के लिए कुंजी)
  • डेटा टाइप (उदाहरण के लिए, फ़्लोट या पूर्णांक)
  • लंबाई (तय या वैरिएबल)

G

ग्राफ़

#TensorFlow

TensorFlow में, कंप्यूटेशन से जुड़ी खास बातें. ग्राफ़ में नोड कार्रवाई का प्रतिनिधित्व करते हैं. किनारे तब भेजे जाते हैं जब वे किसी ऑपरेशन (Tensor) के नतीजे को ऑपरेशन के तौर पर और दूसरे ऑपरेशन में पास करते हैं. किसी ग्राफ़ को विज़ुअलाइज़ करने के लिए, TensorBoard का इस्तेमाल करें.

ग्राफ़ एक्ज़ीक्यूशन

#TensorFlow

ऐसे TensorFlow प्रोग्रामिंग एनवायरमेंट में जो पहले ग्राफ़ बनाता है और फिर उस ग्राफ़ के सभी या कुछ हिस्से बनाता है. TensorFlow 1.x में ग्राफ़ एक्ज़ीक्यूशन एक डिफ़ॉल्ट एक्ज़ीक्यूशन मोड है.

ईयर एक्ज़ीक्यूट के उलट करें.

H

होस्ट

#TensorFlow
#GoogleCloud

एमएल मॉडल को ACelerator चिप (जीपीयू या TPU) पर ट्रेनिंग देने के दौरान, सिस्टम का वह हिस्सा होना चाहिए जो इन दोनों को कंट्रोल करता है:

  • कोड का कुल फ़्लो.
  • इनपुट पाइपलाइन का एक्सट्रैक्शन और बदलाव.

होस्ट आम तौर पर सीपीयू पर काम करता है, न कि एक्सेलेरेटर चिप पर. डिवाइस, एक्ज़ेलर चिप पर टेंसर में हेर-फेर करता है.

L

लेयर एपीआई (tf.layers)

#TensorFlow

लेयर के स्ट्रक्चर के तौर पर एक डीप न्यूरल नेटवर्क बनाने के लिए, TensorFlow एपीआई. लेयर एपीआई की मदद से, अलग-अलग तरह की लेयर बनाई जा सकती हैं, जैसे:

लेयर एपीआई, Keras लेयर एपीआई कन्वेंशन का पालन करता है. इसका मतलब है कि अलग-अलग प्रीफ़िक्स के अलावा, लेयर एपीआई के सभी फ़ंक्शन के नाम और हस्ताक्षर, केरास लेयर एपीआई के नाम से मिलते-जुलते होते हैं.

सोम

मेश

#TensorFlow
#GoogleCloud

एमएल पैरलल प्रोग्रामिंग में, डेटा और मॉडल को TPU चिप में असाइन करने और इन वैल्यू को शार्ड करने या दोहराए जाने का तरीका तय करने के साथ इस्तेमाल होने वाला शब्द.

मेश एक ओवरलोडेड शब्द है जिसका मतलब इनमें से कोई एक हो सकता है:

  • टीपीयू चिप का फ़िज़िकल लेआउट.
  • डेटा और मॉडल को TPU चिप में मैप करने के लिए ऐब्सट्रैक्ट लॉजिकल कंस्ट्रक्शन.

दोनों ही मामलों में, एक मेश आकार के रूप में बताया जाता है.

मीट्रिक

#TensorFlow

वह आंकड़े जो आपके लिए अहम है.

मकसद एक ऐसी मेट्रिक है जो मशीन लर्निंग सिस्टम को ऑप्टिमाइज़ करने की कोशिश करती है.

N

नोड (TensorFlow ग्राफ़)

#TensorFlow

TensorFlow का ग्राफ़ में मौजूद कार्रवाई.

O

ऑपरेशन (ऑप)

#TensorFlow

TensorFlow का कोई भी तरीका, जो Tensor को बनाता है, उसे प्रोसेस करता है या खत्म करता है. उदाहरण के लिए, मैट्रिक्स गुणा एक ऐसी कार्रवाई है जो दो Tensor को इनपुट के रूप में लेती है और एक Tensor को आउटपुट के रूप में जनरेट करती है.

P

पैरामीटर सर्वर (पीएस)

#TensorFlow

ऐसी नौकरी जो मॉडल की गई पैरामीटर को डिस्ट्रिब्यूटेड सेटिंग में ट्रैक करती है.

Q

सूची

#TensorFlow

ऐसा TensorFlow ऑपरेशन जो सूची का डेटा स्ट्रक्चर लागू करता है. आम तौर पर, I/O में इस्तेमाल किया जाता है.

आर

रैंक (टेंसर)

#TensorFlow

टेंसर में मौजूद डाइमेंशन की संख्या. उदाहरण के लिए, किसी स्केलर का रैंक 0 है, जबकि वेक्टर की रैंक 1 है और मैट्रिक्स की रैंक 2 है.

रैंक (आम तौर पर होने वाली) से भ्रम की स्थिति में नहीं.

रूट डायरेक्ट्री

#TensorFlow

आपकी ओर से TensorFlow चेकपॉइंट और कई मॉडल की इवेंट फ़ाइलों को होस्ट करने के लिए बताई गई डायरेक्ट्री.

रवि

सेव मॉडल

#TensorFlow

TensorFlow मॉडल को सेव करने और वापस पाने के लिए सुझाया गया फ़ॉर्मैट. सेव किए गए मॉडल में, एक लैंग्वेज न्यूट्रल, रिकवर होने वाला सीरियलाइज़ेशन फ़ॉर्मैट होता है. यह TensorFlow मॉडल बनाने, उनका इस्तेमाल करने, और उन्हें बदलने के लिए बेहतरीन सिस्टम और टूल उपलब्ध कराता है.

पूरी जानकारी के लिए, TensorFlow प्रोग्रामर की गाइड में, चैप्टर सेव करने और पहले जैसा करने की सुविधा देखें.

सेवर

#TensorFlow

TensorFlow ऑब्जेक्ट मॉडल के चेकपॉइंट सेव करने के लिए ज़िम्मेदार होता है.

शार्ड

#TensorFlow
#GoogleCloud

ट्रेनिंग सेट या मॉडल का लॉजिकल डिवीज़न. आम तौर पर, कुछ प्रक्रिया शार्ड बनाने के लिए उदाहरण या पैरामीटर को छोटे-छोटे हिस्सों में बांट देती है. इसके बाद, हर शार्ड को अलग मशीन को असाइन किया जाता है.

किसी मॉडल को शेयर करने को मॉडल पैरललिज़्म कहा जाता है. शार्डिंग डेटा को डेटा पैरललिज़्म कहा जाता है.

खास जानकारी

#TensorFlow

TensorFlow में, किसी खास चरण में तय की गई वैल्यू या वैल्यू का सेट, जिसे आम तौर पर ट्रेनिंग के दौरान ट्रैकिंग मॉडल मेट्रिक के लिए इस्तेमाल किया जाता है.

गुरु

टेंसर

#TensorFlow

TensorFlow प्रोग्राम का मुख्य डेटा स्ट्रक्चर. टेंसर, N-डाइमेंशन वाले (जहां N बहुत बड़ा हो सकता है) डेटा स्ट्रक्चर होते हैं. आम तौर पर, ये स्केलर, वेक्टर, या मैट्रिक्स होते हैं. टेनसॉर के एलिमेंट में पूर्णांक, फ़्लोटिंग-पॉइंट या स्ट्रिंग वैल्यू हो सकती हैं.

TensorBoard

#TensorFlow

एक या एक से ज़्यादा TensorFlow प्रोग्राम के चलने के दौरान सेव की गई खास जानकारी दिखाने वाला डैशबोर्ड.

TensorFlow

#TensorFlow

बड़े पैमाने पर उपलब्ध कराया गया, मशीन लर्निंग प्लैटफ़ॉर्म. यह शब्द टेंसरफ़्लो स्टैक में बेस एपीआई लेयर के बारे में भी बताता है, जो डेटाफ़्लो ग्राफ़ पर सामान्य कंप्यूटेशन की सुविधा देता है.

हालांकि, TensorFlow का मुख्य तौर पर इस्तेमाल मशीन लर्निंग के लिए किया जाता है, लेकिन आप उन गैर-एमएल टास्क के लिए भी TensorFlow का इस्तेमाल कर सकते हैं जिन्हें डेटाफ़्लो ग्राफ़ का इस्तेमाल करके न्यूमेरिक कंप्यूटेशन की ज़रूरत होती है.

TensorFlow प्लेग्राउंड

#TensorFlow

एक प्रोग्राम, जो यह दिखाता है कि अलग-अलग हाइपरपैरामीटर, मॉडल (मुख्य तौर पर न्यूरल नेटवर्क) की ट्रेनिंग पर कैसे असर डालते हैं. TensorFlow Playground के साथ प्रयोग करने के लिए, http://playground.tesorflow.org पर जाएं.

TensorFlow सर्विंग

#TensorFlow

एक ऐसा प्लैटफ़ॉर्म जो प्रोडक्शन में प्रशिक्षित मॉडल को डिप्लॉय करता है.

टेंसर प्रोसेसिंग यूनिट (TPU)

#TensorFlow
#GoogleCloud

ऐप्लिकेशन-आधारित इंटिग्रेटेड सर्किट (ASIC) जो मशीन लर्निंग के वर्कलोड की परफ़ॉर्मेंस को ऑप्टिमाइज़ करता है. इन एएसआईसी को टीपीयू डिवाइस पर टीपीयू चिप के तौर पर डिप्लॉय किया जाता है.

टेंसर रैंक

#TensorFlow

रैंक (Tensor) देखें.

Tenser का आकार

#TensorFlow

अलग-अलग डाइमेंशन में टेंसर एलिमेंट की संख्या. उदाहरण के लिए, [5, 10] टेंसर का एक डाइमेंशन 5 में और दूसरा डाइमेंशन 10 होता है.

Tenser का साइज़

#TensorFlow

टेंसर में मौजूद स्केलर की कुल संख्या. उदाहरण के लिए, [5, 10] Tensor का साइज़ 50 है.

tf.उदाहरण

#TensorFlow

मशीन लर्निंग मॉडल ट्रेनिंग या अनुमान के लिए, इनपुट डेटा की जानकारी देने का स्टैंडर्ड प्रोटोकॉल बफ़र.

tf.keras

#TensorFlow

KerasTensorFlow का इंटिग्रेटेड वर्शन

टीपीयू (TPU)

#TensorFlow
#GoogleCloud

टेंसर प्रोसेसिंग यूनिट के लिए छोटा नाम.

टीपीयू चिप

#TensorFlow
#GoogleCloud

एक प्रोग्रामेबल लीनियर बीजगणित वाला ऐक्सेलरेटर, जो चिप में हाई बैंडविड्थ मेमोरी होता है. इसे मशीन लर्निंग के वर्कलोड के लिए ऑप्टिमाइज़ किया जाता है. टीपीयू डिवाइस पर कई टीपीयू चिप जोड़े गए हैं.

टीपीयू डिवाइस

#TensorFlow
#GoogleCloud

कई सारे TPU चिप, हाई बैंडविड्थ नेटवर्क इंटरफ़ेस, और सिस्टम कूलिंग हार्डवेयर के साथ, प्रिंट किया हुआ सर्किट बोर्ड (पीसीबी).

टीपीयू मास्टर

#TensorFlow
#GoogleCloud

होस्ट मशीन पर चलने वाली एक सेंट्रल कोऑर्डिनेशन प्रोसेस, टीपीयू वर्कर को डेटा, नतीजे, प्रोग्राम, परफ़ॉर्मेंस, और सिस्टम की हेल्थ से जुड़ी जानकारी भेजती और भेजती है. TPU मास्टर, TPU डिवाइसों का सेटअप और शटडाउन भी मैनेज करता है.

TPU नोड

#TensorFlow
#GoogleCloud

Google Cloud Platform पर मौजूद टीपीयू रिसॉर्स, जिसमें टीपीयू टाइप शामिल है. TPU नोड, किसी मिलते-जुलते ऐप्लिकेशन के VPC नेटवर्क से आपके VPC नेटवर्क से कनेक्ट होता है. टीपीयू नोड, Cloud TPU एपीआई में बताए गए रिसॉर्स हैं.

टीपीयू (TPU) पॉड

#TensorFlow
#GoogleCloud

Google डेटा सेंटर में TPU डिवाइसों का खास कॉन्फ़िगरेशन. टीपीयू पॉड के सभी डिवाइस एक-दूसरे से जुड़े हुए हैं. यह डिवाइस हाई स्पीड नेटवर्क से जुड़े होते हैं. टीपीयू पॉड, टीपीयू डिवाइसों का सबसे बड़ा कॉन्फ़िगरेशन है, जो किसी खास टीपीयू वर्शन के लिए उपलब्ध है.

TPU संसाधन

#TensorFlow
#GoogleCloud

Google Cloud Platform पर मौजूद TPU इकाई जिसे आप बनाते, मैनेज या इस्तेमाल करते हैं. उदाहरण के लिए, TPU नोड और TPU टाइप टीपीयू रिसॉर्स हैं.

टीपीयू स्लाइस

#TensorFlow
#GoogleCloud

TPU स्लाइस, TPU डिवाइसों का कुछ हिस्सा होता है. यह हिस्सा TPU पॉड में होता है. टीपीयू स्लाइस में मौजूद सभी डिवाइस, हाई-स्पीड नेटवर्क की मदद से एक-दूसरे से जुड़े होते हैं.

TPU टाइप

#TensorFlow
#GoogleCloud

किसी खास टीपीयू हार्डवेयर वर्शन के साथ, एक या एक से ज़्यादा TPU डिवाइसों का कॉन्फ़िगरेशन. Google Cloud Platform पर TPU नोड बनाते समय, आपने टीपीयू का टाइप चुना है. उदाहरण के लिए, v2-8 टीपीयू टाइप एक सिंगल TPU v2 डिवाइस है, जिसमें आठ कोर होते हैं. v3-2048 टीपीयू टाइप में, 256 नेटवर्क वाले TPU v3 डिवाइसों और कुल 2048 कोर होते हैं. टीपीयू टाइप, Cloud TPU एपीआई में बताए गए रिसॉर्स हैं.

टीपीयू वर्कर

#TensorFlow
#GoogleCloud

यह एक ऐसी प्रोसेस है जो होस्ट मशीन पर चलती है. साथ ही, TPU डिवाइसों पर मशीन लर्निंग प्रोग्राम लागू करती है.