मशीन लर्निंग शब्दावली: Google क्लाउड

इस पेज में Google Cloud शब्दावली के शब्द हैं. शब्दावली के सभी शब्दों के लिए, यहां क्लिक करें.

A

ऐक्सेलरेटर चिप

#GoogleCloud

यह किसी खास हार्डवेयर कॉम्पोनेंट की कैटगरी है. इसे डीप लर्निंग एल्गोरिदम के लिए ज़रूरी कंप्यूट करने के लिए डिज़ाइन किया गया है.

आम तौर पर इस्तेमाल किए जाने वाले सीपीयू की तुलना में, ऐक्सेलरेटर चिप (या सिर्फ़ एक्रिलेटर) कम समय में ट्रेनिंग और अनुमान लगाने के काम की क्षमता को काफ़ी हद तक बढ़ा सकते हैं. ये न्यूरल नेटवर्क और इसी तरह के कंप्यूटेशन से भरे टास्क को ट्रेनिंग देने के लिए बेहतरीन हैं.

एक्सेलरेटर चिप के उदाहरण:

  • डीप लर्निंग के लिए, Google की टेंसर प्रोसेसिंग यूनिट (टीपीयू), इनके लिए खास हार्डवेयर.
  • NVIDIA के जीपीयू, जो शुरू में ग्राफ़िक प्रोसेसिंग के लिए डिज़ाइन किए गए थे, लेकिन उन्हें पैरलल प्रोसेसिंग चालू करने के लिए डिज़ाइन किया गया है. इससे प्रोसेसिंग की स्पीड काफ़ी बढ़ सकती है.

B

बैच का अनुमान

#TensorFlow
#GoogleCloud

एक से ज़्यादा बिना लेबल वाले उदाहरणों के अनुमानों का अनुमान लगाने की प्रोसेस को छोटे सबसेट (बैच") में बांटा जाता है.

बैच का अनुमान, एसीएलरेटर चिप की साथ-साथ चलने वाली सुविधाओं का फ़ायदा ले सकता है. इसका मतलब है कि कई ऐक्सेलरेटर, एक साथ आए बिना लेबल वाले उदाहरणों के अलग-अलग बैच के लिए अनुमान की जांच कर सकते हैं. इससे हर सेकंड अनुमान की संख्या में बहुत ज़्यादा बढ़ोतरी होती है.

C

Cloud TPU

#TensorFlow
#GoogleCloud

यह एक खास हार्डवेयर ऐक्सेलरेटर है, जिसे Google Cloud Platform पर काम करने वाले मशीन लर्निंग वर्कलोड की स्पीड बढ़ाने के लिए डिज़ाइन किया गया है.

D

डिवाइस

#TensorFlow
#GoogleCloud

नीचे दी गई दो संभावित परिभाषाओं के साथ ओवरलोड हुआ शब्द:

  1. हार्डवेयर की एक कैटगरी, जो TensorFlow का सेशन चला सकती है. इसमें सीपीयू, जीपीयू, और TPU शामिल हैं.
  2. एमएल मॉडल को एसीलेटर चिप (जीपीयू या टीपीयू) पर ट्रेनिंग देते समय, सिस्टम का वह हिस्सा जो असल में टेंसर और एम्बेड करने में हेर-फेर करता है. डिवाइस, एक्सेलरेट चिप पर काम करता है. इसके उलट, होस्ट आम तौर पर सीपीयू पर चलता है.

H

होस्ट

#TensorFlow
#GoogleCloud

एमएल मॉडल को ACelerator चिप (जीपीयू या TPU) पर ट्रेनिंग देने के दौरान, सिस्टम का वह हिस्सा होना चाहिए जो इन दोनों को कंट्रोल करता है:

  • कोड का कुल फ़्लो.
  • इनपुट पाइपलाइन का एक्सट्रैक्शन और बदलाव.

होस्ट आम तौर पर सीपीयू पर काम करता है, न कि एक्सेलेरेटर चिप पर. डिवाइस, एक्ज़ेलर चिप पर टेंसर में हेर-फेर करता है.

सोम

मेश

#TensorFlow
#GoogleCloud

एमएल पैरलल प्रोग्रामिंग में, डेटा और मॉडल को TPU चिप में असाइन करने और इन वैल्यू को शार्ड करने या दोहराए जाने का तरीका तय करने के साथ इस्तेमाल होने वाला शब्द.

मेश एक ओवरलोडेड शब्द है जिसका मतलब इनमें से कोई एक हो सकता है:

  • टीपीयू चिप का फ़िज़िकल लेआउट.
  • डेटा और मॉडल को TPU चिप में मैप करने के लिए ऐब्सट्रैक्ट लॉजिकल कंस्ट्रक्शन.

दोनों ही मामलों में, एक मेश आकार के रूप में बताया जाता है.

रवि

शार्ड

#TensorFlow
#GoogleCloud

ट्रेनिंग सेट या मॉडल का लॉजिकल डिवीज़न. आम तौर पर, कुछ प्रक्रिया शार्ड बनाने के लिए उदाहरण या पैरामीटर को छोटे-छोटे हिस्सों में बांट देती है. इसके बाद, हर शार्ड को अलग मशीन को असाइन किया जाता है.

किसी मॉडल को शेयर करने को मॉडल पैरललिज़्म कहा जाता है. शार्डिंग डेटा को डेटा पैरललिज़्म कहा जाता है.

गुरु

टेंसर प्रोसेसिंग यूनिट (TPU)

#TensorFlow
#GoogleCloud

ऐप्लिकेशन-आधारित इंटिग्रेटेड सर्किट (ASIC) जो मशीन लर्निंग के वर्कलोड की परफ़ॉर्मेंस को ऑप्टिमाइज़ करता है. इन एएसआईसी को टीपीयू डिवाइस पर टीपीयू चिप के तौर पर डिप्लॉय किया जाता है.

टीपीयू (TPU)

#TensorFlow
#GoogleCloud

टेंसर प्रोसेसिंग यूनिट के लिए छोटा नाम.

टीपीयू चिप

#TensorFlow
#GoogleCloud

एक प्रोग्रामेबल लीनियर बीजगणित वाला ऐक्सेलरेटर, जो चिप में हाई बैंडविड्थ मेमोरी होता है. इसे मशीन लर्निंग के वर्कलोड के लिए ऑप्टिमाइज़ किया जाता है. टीपीयू डिवाइस पर कई टीपीयू चिप जोड़े गए हैं.

टीपीयू डिवाइस

#TensorFlow
#GoogleCloud

कई सारे TPU चिप, हाई बैंडविड्थ नेटवर्क इंटरफ़ेस, और सिस्टम कूलिंग हार्डवेयर के साथ, प्रिंट किया हुआ सर्किट बोर्ड (पीसीबी).

टीपीयू मास्टर

#TensorFlow
#GoogleCloud

होस्ट मशीन पर चलने वाली एक सेंट्रल कोऑर्डिनेशन प्रोसेस, टीपीयू वर्कर को डेटा, नतीजे, प्रोग्राम, परफ़ॉर्मेंस, और सिस्टम की हेल्थ से जुड़ी जानकारी भेजती और भेजती है. TPU मास्टर, TPU डिवाइसों का सेटअप और शटडाउन भी मैनेज करता है.

TPU नोड

#TensorFlow
#GoogleCloud

Google Cloud Platform पर मौजूद टीपीयू रिसॉर्स, जिसमें टीपीयू टाइप शामिल है. TPU नोड, किसी मिलते-जुलते ऐप्लिकेशन के VPC नेटवर्क से आपके VPC नेटवर्क से कनेक्ट होता है. टीपीयू नोड, Cloud TPU एपीआई में बताए गए रिसॉर्स हैं.

टीपीयू (TPU) पॉड

#TensorFlow
#GoogleCloud

Google डेटा सेंटर में TPU डिवाइसों का खास कॉन्फ़िगरेशन. टीपीयू पॉड के सभी डिवाइस एक-दूसरे से जुड़े हुए हैं. यह डिवाइस हाई स्पीड नेटवर्क से जुड़े होते हैं. टीपीयू पॉड, टीपीयू डिवाइसों का सबसे बड़ा कॉन्फ़िगरेशन है, जो किसी खास टीपीयू वर्शन के लिए उपलब्ध है.

TPU संसाधन

#TensorFlow
#GoogleCloud

Google Cloud Platform पर मौजूद TPU इकाई जिसे आप बनाते, मैनेज या इस्तेमाल करते हैं. उदाहरण के लिए, TPU नोड और TPU टाइप टीपीयू रिसॉर्स हैं.

टीपीयू स्लाइस

#TensorFlow
#GoogleCloud

TPU स्लाइस, TPU डिवाइसों का कुछ हिस्सा होता है. यह हिस्सा TPU पॉड में होता है. टीपीयू स्लाइस में मौजूद सभी डिवाइस, हाई-स्पीड नेटवर्क की मदद से एक-दूसरे से जुड़े होते हैं.

TPU टाइप

#TensorFlow
#GoogleCloud

किसी खास टीपीयू हार्डवेयर वर्शन के साथ, एक या एक से ज़्यादा TPU डिवाइसों का कॉन्फ़िगरेशन. Google Cloud Platform पर TPU नोड बनाते समय, आपने टीपीयू का टाइप चुना है. उदाहरण के लिए, v2-8 टीपीयू टाइप एक सिंगल TPU v2 डिवाइस है, जिसमें आठ कोर होते हैं. v3-2048 टीपीयू टाइप में, 256 नेटवर्क वाले TPU v3 डिवाइसों और कुल 2048 कोर होते हैं. टीपीयू टाइप, Cloud TPU एपीआई में बताए गए रिसॉर्स हैं.

टीपीयू वर्कर

#TensorFlow
#GoogleCloud

यह एक ऐसी प्रोसेस है जो होस्ट मशीन पर चलती है. साथ ही, TPU डिवाइसों पर मशीन लर्निंग प्रोग्राम लागू करती है.