मशीन लर्निंग ग्लॉसरी: एमएल बुनियादी बातें

इस पेज में ML Fundamentals शब्दावली शब्द शामिल हैं. शब्दावली के सभी शब्दों के लिए, यहां क्लिक करें.

A

सटीक

#fundamentals

सही कैटगरी अनुमान की संख्या को, अनुमानों की कुल संख्या से भाग दिया जाता है. यानी:

$$\text{Accuracy} = \frac{\text{correct predictions}} {\text{correct predictions + incorrect predictions }}$$

उदाहरण के लिए, ऐसा मॉडल जिसने 40 सही अनुमान और 10 गलत अनुमान लगाए हैं, वह सटीक होगा:

$$\text{Accuracy} = \frac{\text{40}} {\text{40 + 10}} = \text{80%}$$

बाइनरी की कैटगरी तय करने से, सही अनुमानों और गलत अनुमानों की अलग-अलग कैटगरी के लिए खास नाम मिलते हैं. इसलिए, बाइनरी क्लासिफ़िकेशन का सटीक फ़ॉर्मूला इस तरह है:

$$\text{Accuracy} = \frac{\text{TP} + \text{TN}} {\text{TP} + \text{TN} + \text{FP} + \text{FN}}$$

कहां:

सटीक और याद रखें की मदद से तुलना और कंट्रास्ट की सटीक जानकारी दी जा सकती है.

ऐक्टिवेशन फ़ंक्शन

#fundamentals

एक ऐसा फ़ंक्शन जो सुविधाओं और लेबल के बीच nonlinear (जटिल) के रिश्तों को जानने के लिए न्यूरल नेटवर्क को चालू करता है.

लोकप्रिय ऐक्टिवेशन फ़ंक्शन में ये शामिल हैं:

ऐक्टिवेशन फ़ंक्शन के प्लॉट कभी भी एक सीधी लाइन नहीं होते. उदाहरण के लिए, ReLU ऐक्टिवेशन फ़ंक्शन के प्लॉट में दो सीधी लाइनें होती हैं:

दो पंक्तियों वाला कार्टेशियन प्लॉट. पहली लाइन का स्थायी y मान 0 है, जो x-ऐक्सिस के बगल में -infinity, 0 से 0 तक चलता है.
          दूसरी लाइन 0,0 से शुरू होती है. इस लाइन में +1 का स्लोप है, इसलिए यह 0,0 से +Infinity,+Infinity तक चलता है.

सिग्मॉइड ऐक्टिवेशन फ़ंक्शन का प्लॉट ऐसा दिखता है:

दो डाइमेंशन वाला कर्व प्लॉट, जिसमें -इनफ़ाइनाइट डोमेन के x वैल्यू होते हैं, जबकि y की वैल्यू करीब 0 से लेकर करीब 1 तक होती हैं. जब x, 0 होता है, तो y का मतलब है 0.5. कर्व का स्लोप
          हमेशा पॉज़िटिव होता है. सबसे ज़्यादा 0, 0.5 ढलान वाली स्लोप होती है
          और स्लोप की कुल वैल्यू बढ़ने पर,स्लोप धीरे-धीरे कम होता जाता है.

आर्टिफ़िशियल इंटेलिजेंस

#fundamentals

एक ऐसा नॉन-इंसान या मॉडल जो बेहतर टास्क पूरे कर सकता है. उदाहरण के लिए, ऐसा प्रोग्राम या मॉडल जो टेक्स्ट या किसी प्रोग्राम या मॉडल का अनुवाद करता है, जो रेडियोलॉजिक इमेज से बीमारियों की पहचान करता है, आर्टिफ़िशियल इंटेलिजेंस का इस्तेमाल करता है.

औपचारिक रूप से, मशीन लर्निंग, आर्टिफ़िशियल इंटेलिजेंस का एक सब-फ़ील्ड है. हालांकि, हाल ही के कुछ सालों में, कुछ संगठनों ने आर्टिफ़िशियल इंटेलिजेंस और मशीन लर्निंग शब्दों का इस्तेमाल करना शुरू कर दिया है.

AUC (आरओसी कर्व के तहत क्षेत्र)

#fundamentals

0.0 और 1.0 के बीच की संख्या जो बाइनरी क्लासिफ़िकेशन मॉडल की क्षमता को दिखाती है. इससे पॉज़िटिव क्लास कोनेगेटिव क्लास से अलग करने का पता चलता है. AUC 1.0 के जितना करीब होगा, मॉडल को एक-दूसरे से क्लास को अलग करने की सुविधा उतनी ही बेहतर होगी.

उदाहरण के लिए, नीचे दिए गए उदाहरण में क्लासिफ़ायर मॉडल दिखाया गया है. यह मॉडल, पॉज़िटिव क्लास (हरे अंडाकार) को नेगेटिव क्लास (बैंगनी रेक्टैंगल) से पूरी तरह अलग करता है. वास्तविक रूप से बेहतरीन मॉडल में 1.0 का AUC है:

यह एक संख्या लाइन होती है, जिसमें एक तरफ़ आठ पॉज़िटिव उदाहरण होते हैं और
          नौ तरफ़ नेगेटिव हिस्से होते हैं.

इसके उलट, इस उदाहरण में क्लासिफ़ायर मॉडल से मिले नतीजे दिखाए गए हैं. ये मॉडल, बिना किसी क्रम के नतीजे जनरेट करते हैं. इस मॉडल का AUC 0.5 है:

छह लाइन के उदाहरणों और छह नेगेटिव उदाहरणों वाली एक लाइन.
          उदाहरणों का क्रम पॉज़िटिव, नेगेटिव,
 पॉज़िटिव, नेगेटिव, पॉज़िटिव, नेगेटिव, पॉज़िटिव, नेगेटिव, पॉज़िटिव, नेगेटिव, पॉज़िटिव, नेगेटिव, नेगेटिव शामिल है.

हां, पिछले मॉडल का AUC 0.5 है, न कि 0.0.

ज़्यादातर मॉडल, दोनों एक्सट्रीम के बीच में होते हैं. उदाहरण के लिए, यहां दिया गया मॉडल, पॉज़िटिव और नेगेटिव, दोनों को अलग करता है. इसलिए, AUC, 0.5 से 1.0 के बीच है:

छह लाइन के उदाहरणों और छह नेगेटिव उदाहरणों वाली एक लाइन.
          इसके उदाहरण ये हैं: नेगेटिव, नेगेटिव, नेगेटिव, नेगेटिव,
          पॉज़िटिव, नेगेटिव, पॉज़िटिव, पॉज़िटिव, नेगेटिव, पॉज़िटिव, पॉज़िटिव,
          पॉज़िटिव.

AUC कैटगरी के थ्रेशोल्ड के लिए सेट की गई किसी भी वैल्यू को अनदेखा करता है. इसके बजाय, AUC सभी संभावित क्लासिफ़िकेशन पर विचार करता है.

B

बैकपेजेशन

#fundamentals

एक एल्गोरिदम, जो न्यूरल नेटवर्क में ग्रेड देने वाला वंश लागू करता है.

न्यूरल नेटवर्क की ट्रेनिंग के लिए, इन दो पास वाले साइकल में कई जानकारी शामिल होती है:

  1. सिस्टम फ़ॉरवर्ड पास के दौरान अनुमान दिखाने के लिए, उदाहरणों का बैच प्रोसेस करता है. सिस्टम हर लेबल की वैल्यू के हिसाब से हर अनुमान की तुलना करता है. इस उदाहरण के लिए, अनुमान और लेबल की वैल्यू के बीच का अंतर लॉस है. मौजूदा बैच की कुल हानि का हिसाब लगाने के लिए, सिस्टम सभी उदाहरणों से होने वाले नुकसानों का एग्रीगेट करता है.
  2. बैकवर्ड पास (बैकप्रोपेगेशन) के दौरान, सिस्टम सभी छिपी हुई लेयर में सभी न्यूरॉन के वज़न में बदलाव करके नुकसान को कम करता है.

न्यूरल नेटवर्क में अक्सर कई छिपी हुई लेयर में कई न्यूरॉन होते हैं. उनमें से हर न्यूरॉन, अलग-अलग तरीके से कुल नुकसान में योगदान देता है. बैकप्रोपेगेशन की मदद से यह तय होता है कि किसी न्यूरॉन पर लागू किए गए वज़न को बढ़ाना है या बढ़ाना है.

लर्निंग रेट एक ऐसा मल्टीप्लायर है जो यह कंट्रोल करता है कि हर बैकवर्ड पास, हर वज़न को कितना बढ़ा या घटा सकता है. सीखने की दर ज़्यादा होने पर, हर बच्चे का वज़न सीखने की दर कम होने से ज़्यादा या कम होगा.

कैलक्युलस के हिसाब से, बैकप्रोपेगेशन से कैलक्युलस के लिएचेन नियम लागू होता है. इसका मतलब है कि बैकप्रोपेशन, हर पैरामीटर के लिए गड़बड़ी के कुछ हिस्से का डेरिवेटिव कैलकुलेट करता है. ज़्यादा जानकारी के लिए, मशीन लर्निंग क्रैश कोर्स में ट्यूटोरियलदेखें.

कई साल पहले, मशीन लर्निंग (एमएल) में काम करने वालों को बैकपेज लागू करने के लिए, कोड लिखना पड़ता था. अब TensorFlow जैसे मॉडर्न एमएल एपीआई, आपके लिए बैकपेज लागू करते हैं. वाह!

बैच

#fundamentals

एक ट्रेनिंग इटरेशन में इस्तेमाल किए गए उदाहरण का सेट. बैच का साइज़ बैच में उदाहरणों की संख्या तय करता है.

किसी epoch से जुड़ा बैच क्या होता है, यह जानने के लिए epoch देखें.

बैच का आकार

#fundamentals

बैच में दिए गए उदाहरण. उदाहरण के लिए, अगर बैच का साइज़ 100 है, तो मॉडल हर इटरेशन के लिए 100 उदाहरण प्रोसेस करता है.

बैच की साइज़ के लिए, नीचे दी गई लोकप्रिय रणनीतियां दी गई हैं:

  • स्टोचस्टिक ग्रेडिएंट डाउन (SGD), जिसमें बैच का साइज़ एक है.
  • फ़ुल बैच, जिसमें बैच का साइज़, पूरे ट्रेनिंग सेट में मौजूद उदाहरणों की संख्या होता है. उदाहरण के लिए, अगर ट्रेनिंग सेट में लाखों उदाहरण शामिल हैं, तो बैच के साइज़ में लाखों उदाहरण होंगे. आम तौर पर, पूरा बैच एक बेहतर रणनीति नहीं होती.
  • मिनी-बैच, जिसमें बैच का साइज़ आम तौर पर 10 से 1,000 के बीच होता है. आम तौर पर, मिनी बैच सबसे असरदार रणनीति होती है.

भेदभाव (नैतिकता/फ़ेयरनेस)

#fairness
#fundamentals

1. कुछ चीज़ों, लोगों या दूसरे ग्रुप के ऊपर पक्षपात करना, पक्षपात या पक्षपात करना. इन अनचाही चीज़ों से डेटा को इकट्ठा करने, उसे समझने, सिस्टम के डिज़ाइन, और सिस्टम के साथ उपयोगकर्ता के इंटरैक्ट करने के तरीके पर असर पड़ सकता है. इस तरह के भेदभाव का असर ये हो सकता है:

2. नमूने या रिपोर्टिंग प्रोसेस से शुरू हुई सिस्टम की गड़बड़ी. इस तरह के भेदभाव का असर ये हो सकता है:

मशीन लर्निंग मॉडल में मौजूद बायस शब्द या प्रीडिक्शन बायस से जुड़ी कोई भ्रम की स्थिति नहीं होनी चाहिए.

बायस (मैथ) या बायस टर्म

#fundamentals

ऑरिजिन का इंटरसेप्ट या ऑफ़सेट. बायस, मशीन लर्निंग मॉडल में इस्तेमाल किया जाने वाला एक पैरामीटर है, जिसे इन दोनों में से किसी एक से दिखाया जाता है:

  • b
  • w0

उदाहरण के लिए, इन फ़ॉर्मूला में b बायस है:

$$y' = b + w_1x_1 + w_2x_2 + … w_nx_n$$

सरल दो-डाइमेंशन वाली लाइन में, बायस का मतलब "y-इंटरसेप्ट" है. उदाहरण के लिए, इस उदाहरण में लाइन का झुकाव 2 है.

0.5 की ढलान वाली रेखा और 2 का झुकाव (y-इंटरसेप्ट) दिखाने वाला प्लॉट.

बायस मौजूद है, क्योंकि सभी मॉडल ऑरिजिन से शुरू नहीं होते हैं (0,0). उदाहरण के लिए, बने मनोरंजन के लिए एक मनोरंजन पार्क का शुल्क 2 यूरो है और ग्राहक के ठहरने पर हर घंटे के लिए 0.5 यूरो का शुल्क लगता है. इसलिए, कुल लागत को मैप करने वाले एक मॉडल का झुकाव 2 के पास है, क्योंकि सबसे कम लागत दो यूरो है.

बायस को नैतिकता और निष्पक्षता या अनुमान के आधार पर होने वाले भेदभाव से जोड़कर नहीं देखा जाना चाहिए.

बाइनरी क्लासिफ़िकेशन

#fundamentals

ऐसा क्लासिफ़िकेशन टास्क जो दो खास क्लास में से किसी एक को बताता है:

उदाहरण के लिए, नीचे दिए गए दो मशीन लर्निंग मॉडल, बाइनरी क्लासिफ़िकेशन करते हैं:

  • एक मॉडल, जो यह तय करता है कि ईमेल मैसेज स्पैम (पॉज़िटिव क्लास) हैं या स्पैम (नेगेटिव क्लास) नहीं हैं.
  • यह एक ऐसा मॉडल है जो इलाज के लक्षणों का आकलन करके, यह पता लगाता है कि किसी व्यक्ति में कोई खास बीमारी (सकारात्मक क्लास) है या नहीं या उसे किसी बीमारी (नेगेटिव क्लास) का सामना नहीं करना पड़ा.

मल्टी-क्लास क्लासिफ़िकेशन के साथ कंट्रास्ट.

लॉजिस्टिक रिग्रेशन और क्लासिफ़िकेशन थ्रेशोल्ड भी देखें.

बकेटिंग

#fundamentals

किसी सुविधा को कई बाइनरी सुविधाओं में बदलना, जिन्हें बकेट या बिन कहा जाता है. यह आम तौर पर मान की सीमा के आधार पर बनाई जाती है. आम तौर पर, क्रॉप की गई सुविधा लगातार चालू रहने वाली सुविधा होती है.

उदाहरण के लिए, तापमान को एक ही फ़्लोटिंग-पॉइंट सुविधा के तौर पर दिखाने के बजाय, आप अलग-अलग बकेट में तापमान ले सकते हैं, जैसे कि:

  • <= 10 डिग्री सेल्सियस "कोल्ड" बकेट होगा.
  • 11 से 24 डिग्री सेल्सियस, "छोटा" बकेट होता है.
  • >= 25 डिग्री सेल्सियस, "वॉर्म" बकेट होगा.

मॉडल एक ही बकेट में मौजूद हर वैल्यू को एक जैसा रखेगा. उदाहरण के लिए, 13 और 22 वैल्यू, सामान्य तापमान वाली बकेट में हैं, इसलिए मॉडल दो वैल्यू को एक जैसा मानता है.

C

डेटा की कैटगरी

#fundamentals

सुविधाओं में खास वैल्यू का सेट होता है. उदाहरण के लिए, traffic-light-state नाम की कैटगरी वाली सुविधा के बारे में सोचें, जिसमें नीचे दी गई तीन संभावित वैल्यू में से कोई एक हो सकती है:

  • red
  • yellow
  • green

traffic-light-state को एक सामान्य सुविधा के तौर पर दिखाने से, ड्राइवर के व्यवहार पर red, green, और yellow के अलग-अलग असर का पता लगाया जा सकता है.

इसे साफ़ तौर पर दिखने वाली सुविधाओं को कभी-कभी अलग-अलग सुविधाएं कहा जाता है.

न्यूमेरिक डेटा के साथ कंट्रास्ट होना.

क्लास

#fundamentals

वह कैटगरी जिससे लेबल जुड़ी हो. उदाहरण के लिए:

क्लासिफ़िकेशन मॉडल से क्लास का अनुमान लगता है. इसके उलट, रिग्रेशन मॉडल, क्लास के बजाय नंबर का अनुमान लगाता है.

क्लासिफ़िकेशन मॉडल

#fundamentals

वह मॉडल जिसका अनुमान क्लास है. उदाहरण के लिए, कैटगरी तय करने वाले सभी मॉडल यहां दिए गए हैं:

  • इनपुट वाक्य की भाषा का अनुमान लगाने वाला मॉडल (फ़्रेंच? स्पैनिश? इटैलियन?)
  • पेड़ की प्रजातियों का अनुमान लगाने वाला मॉडल (मेपल? ओक? बेओबाब?).
  • किसी खास बीमारी के लिए पॉज़िटिव या नेगेटिव क्लास का अनुमान लगाने वाला मॉडल.

इसके उलट, रिग्रेशन मॉडल में कक्षाओं के बजाय नंबर का अनुमान लगाया जाता है.

दो तरह के सामान्य मॉडल हैं:

श्रेणी में बाँटने की सीमा

#fundamentals

बाइनरी क्लासिफ़िकेशन में, 0 और 1 के बीच की कोई संख्या, जो लॉजिस्टिक रिग्रेशन मॉडल के रॉ आउटपुट को पॉज़िटिव क्लास या नेगेटिव क्लास के अनुमान में बदल देता है. ध्यान दें कि क्लासिफ़िकेशन थ्रेशोल्ड वह वैल्यू होती है जिसे इंसान चुनता है, न कि मॉडल ट्रेनिंग से चुनी गई वैल्यू.

लॉजिस्टिक रिग्रेशन मॉडल का इस्तेमाल करके, 0 और 1 के बीच की रॉ वैल्यू डाली जाती है. इसके बाद:

  • यह रॉ वैल्यू, क्लासिफ़िकेशन थ्रेशोल्ड से ज़्यादा है, तो पॉज़िटिव क्लास का अनुमान लगाया जाता है.
  • यह रॉ वैल्यू, क्लासिफ़िकेशन थ्रेशोल्ड से कम है, तो नेगेटिव क्लास का अनुमान लगाया जाता है.

उदाहरण के लिए, मान लीजिए कि क्लासिफ़िकेशन की सीमा 0.8 है. अगर रॉ वैल्यू 0.9 है, तो मॉडल पॉज़िटिव क्लास का अनुमान लगाता है. अगर रॉ वैल्यू 0.7 है, तो मॉडल नेगेटिव क्लास का अनुमान लगाता है.

डेटा की कैटगरी तय करने का थ्रेशोल्ड, गलत पॉज़िटिव और गलत नेगेटिव रेटिंग की संख्या पर बहुत ज़्यादा असर डालता है.

क्लास-अनबैलेंस्ड डेटासेट

#fundamentals

क्लासिफ़िकेशन की समस्या से जुड़ा डेटासेट, हर क्लास के लेबल की कुल संख्या में काफ़ी अंतर होता है. उदाहरण के लिए, एक बाइनरी क्लासिफ़िकेशन डेटासेट इस्तेमाल करें, जिसके दो लेबल को इस तरह से बांटा गया हो:

  • 10,00,000 नेगेटिव लेबल
  • 10 पॉज़िटिव लेबल

नेगेटिव और पॉज़िटिव लेबल का अनुपात 1,00,000 से 1 है, इसलिए यह असंतुलित डेटासेट है.

इसके उलट, नीचे दिए गए डेटासेट को क्लास के हिसाब से नहीं बनाया गया है, क्योंकि पॉज़िटिव लेबल का नेगेटिव लेबल का अनुपात 1 के करीब होता है:

  • 517 नेगेटिव लेबल
  • 483 पॉज़िटिव लेबल

मल्टी-क्लास डेटासेट को भी असंतुलित किया जा सकता है. उदाहरण के लिए, नीचे दिए गए कई कैटगरी वाले क्लासिफ़िकेशन डेटासेट को भी असंतुलित माना गया है, क्योंकि एक लेबल में दो अन्य क्लास की तुलना में बहुत ज़्यादा उदाहरण हैं:

  • "हरे" क्लास वाले 10,00,000 लेबल
  • "बैंगनी" क्लास वाले 200 लेबल
  • "नारंगी" क्लास वाले 350 लेबल

एंट्रोपी, मैजोरिटी क्लास, और माइनर क्लास भी देखें.

क्लिपिंग

#fundamentals

इनमें से किसी एक या दोनों को अपनाकर आउटलायर को हैंडल करने की तकनीक:

  • सुविधा की कम से कम वैल्यू को कम करने से, थ्रेशोल्ड को तय सीमा से कम किया जाता है.
  • सुविधा के ऐसे मान बढ़ाना जो सबसे कम सीमा से भी है.

उदाहरण के लिए, मान लें कि किसी खास सुविधा के लिए <0.5% मान 40–60 की सीमा से बाहर है. इस स्थिति में आप ये काम कर सकते हैं:

  • 60 से ज़्यादा (ज़्यादा से ज़्यादा सीमा) पर सेट सभी मानों को ठीक 60 होना चाहिए.
  • 40 (कम से कम थ्रेशोल्ड) से कम की सभी वैल्यू को सटीक तौर पर 40 पर क्लिप करें.

ऐसा करने पर, बाहरी मॉडल को नुकसान हो सकता है. इसकी वजह से, कभी-कभी ट्रेनिंग के दौरान वज़न ओवरफ़्लो हो सकता है. कुछ आउटलायर से सटीकता जैसी मेट्रिक की परफ़ॉर्मेंस भी काफ़ी खराब हो सकती है. नुकसान को सीमित करने के लिए, क्लिप बनाना एक आम तकनीक है.

ग्रेडिंग क्लिपिंग की मदद से, ट्रेनिंग के दौरान तय की गई सीमा में ग्रेडिएंट की वैल्यू डाली जा सकती है.

भ्रम की स्थिति का मैट्रिक्स

#fundamentals

एक NxN टेबल, जो क्लासिफ़िकेशन मॉडल में किए गए सही और गलत अनुमानों की संख्या की खास जानकारी देती है. उदाहरण के लिए, बाइनरी की कैटगरी तय करने वाले मॉडल के लिए, इन भ्रम की मैट्रिक्स को समझने के बारे में सोचें:

ट्यूमर (अनुमानित) ट्यूमर नहीं है (अनुमानित)
ट्यूमर (ग्राउंड ट्रूथ) 18 (टीपी) 1 (एफ़एन)
नॉन-ट्यूमर (ग्राउंड ट्रूथ) 6 (एफ़पी) 452 (टीएन)

पिछले भ्रम की मैट्रिक्स में ये चीज़ें दिखती हैं:

  • उन 19 अनुमानों में से, जिनमें ग्राउंड ट्रूथ ट्यूमर था, इस मॉडल ने 18 और सही तरीके से 1 को गलत कैटगरी में रखा था.
  • 458 अनुमानों में से, असल तथ्य के बिना ट्यूमर होने की वजह से, इस मॉडल ने 452 और सही तरीके से 6 गड़बड़ियों को सही कैटगरी में रख दिया.

मल्टी-क्लास क्लासिफ़िकेशन की समस्या का भ्रम की मैट्रिक्स, आपको गलतियों के पैटर्न की पहचान करने में मदद कर सकती है. उदाहरण के लिए, तीन क्लास के आइरिस क्लास के लिए, इस भ्रम मैट्रिक्स को ध्यान में रखें. यह कैटगरी, तीन अलग-अलग तरह के आइरिस के प्रकारों (वर्जिनिका, Versicolor, और Setosa) की कैटगरी तय करती है. जब ज़मीनी सच्चाई वर्जीनिया के बारे में थी, तो इस कॉन्सेप्ट मैट्रिक्स से पता चलता है कि इस मॉडल में सेटोसा की तुलना में अलग-अलग रंग के शब्द वाला शब्द बताने की संभावना ज़्यादा है:

  सेटोसा (अनुमानित) बहुरंगी (अनुमानित) वर्जिनिका (अनुमानित)
सेटोसा (ग्राउंड ट्रूथ) 88 12 0
वर्सिकलर (ग्राउंड ट्रूथ) 6 141 7
वर्जिनिका (ग्राउंड ट्रूथ) 2 27 109

एक अन्य उदाहरण में, भ्रम की मैट्रिक्स से यह पता चल सकता है कि मॉडल किए गए अंकों को पहचानने के लिए प्रशिक्षित मॉडल, 4 के बजाय गलती से 9 का अनुमान लगा लेता है या गलती से 7 के बजाय 1 का अनुमान लगा लेता है.

मैच्योरिटी में, सटीक और रीकॉल के साथ-साथ कई तरह की परफ़ॉर्मेंस मेट्रिक का हिसाब लगाने के लिए ज़रूरी जानकारी शामिल होती है.

निरंतर सुविधा

#fundamentals

फ़्लोटिंग-पॉइंट की सुविधा, जिसमें तापमान या वज़न जैसी अनगिनत वैल्यू मौजूद होती हैं.

अलग-अलग सुविधाओं वाला कंट्रास्ट.

कन्वर्जेंस

#fundamentals

हर बारिश की वैल्यू में बहुत कम या कोई भी बदलाव होने पर, हर इटरेशन पर कोई स्थिति नहीं आती. उदाहरण के लिए, यहां दिया गया लॉस कर्व, 700 बार दोहराए जाने पर डेटा को इकट्ठा करने का सुझाव देता है:

कार्टेशियन प्लॉट. X-अक्ष पर नुकसान हो रहा है. Y-ऐक्सिस, ट्रेनिंग के बार-बार होने वाले
 इवेंट की संख्या है. सिर्फ़ कुछ बार दोहराए जाने के दौरान लॉस बहुत ज़्यादा होता है, लेकिन तेज़ी से कम होता है. करीब 100 बार दोहराने के बाद, नुकसान अब भी घटते हुए क्रम में है. करीब 700 बार बदलाव करने के बाद,
          कमी पूरी हो जाती है.

किसी मॉडल के बेहतर होने पर उस मॉडल में सुधार नहीं होता.

डीप लर्निंग में, नुकसान की वैल्यू कभी-कभी एक जैसी या करीब-करीब रहती हैं. आखिर में, कई बार गिरावट के बाद भी ऐसा होता है. लंबे समय तक लगातार बने रहने वाले नुकसान के दौरान, आपको कुछ समय के लिए एक जैसी सोच मिल सकती है.

जल्द बंद होना भी देखें.

D

DataFrame

#fundamentals

मेमोरी में डेटासेट दिखाने के लिए, एक लोकप्रिय पांडा डेटाटाइप.

DataFrame, किसी टेबल या स्प्रेडशीट की तरह होता है. DataFrame के हर कॉलम का एक नाम (हेडर) होता है. साथ ही, हर लाइन की एक यूनीक संख्या होती है.

DataFrame के हर कॉलम को 2D ऐरे की तरह बनाया जाता है. इसके अलावा, हर कॉलम के लिए अलग डेटा टाइप तय किया जा सकता है.

आधिकारिक pandas.DataFrame रेफ़रंस पेज भी देखें.

डेटा सेट या डेटासेट

#fundamentals

रॉ डेटा का कलेक्शन, जिसे आम तौर पर इनमें से किसी एक फ़ॉर्मैट में व्यवस्थित किया जाता है. हालांकि, इसका इस्तेमाल खास तौर पर नहीं किया जाता:

  • स्प्रेडशीट
  • CSV (कॉमा लगाकर अलग की गई वैल्यू) फ़ॉर्मैट वाली फ़ाइल

डीप मॉडल

#fundamentals

न्यूरल नेटवर्क, जिसमें एक से ज़्यादा छिपी हुई लेयर हो.

डीप मॉडल को डीप न्यूरल नेटवर्क भी कहा जाता है.

वाइड मॉडल के साथ उलटा करें.

घनी सुविधा

#fundamentals

ऐसी फ़ीचर जिसमें ज़्यादातर या सभी वैल्यू शून्य नहीं होती हैं, आम तौर पर फ़्लोटिंग-पॉइंट वैल्यू की Tensor. उदाहरण के लिए, नीचे दिया गया 10-एलिमेंट टेनसॉर घना है, क्योंकि इसकी 9 वैल्यू शून्य नहीं हैं:

8 3 7 5 2 4 0 4 9 6

पार्स सुविधा का कंट्रास्ट.

गहराई

#fundamentals

किसी न्यूरल नेटवर्क में, इनका जोड़:

उदाहरण के लिए, एक न्यूरल नेटवर्क, जिसमें पांच छिपी हुई लेयर और एक आउटपुट लेयर है, इसकी गहराई छह है.

ध्यान दें कि इनपुट लेयर ज़्यादा गहराई से काम नहीं करता.

डिस्क्रीट सुविधा

#fundamentals

अपनी सुविधा इस्तेमाल करने के लिए, सीमित संख्या में वैल्यू डालें. उदाहरण के लिए, ऐसी सुविधा जिसके मान सिर्फ़ जानवर, शाकाहारी या खनिज हो सकते हैं. यह "अलग" या "सामान्य" सुविधा है.

लगातार मिलने वाली सुविधा से उलट करें.

डाइनैमिक

#fundamentals

कोई चीज़ बार-बार या लगातार की जाती है. डाइनैमिक और ऑनलाइन शब्द मशीन लर्निंग में इस्तेमाल किए जाने वाले समानार्थी शब्द हैं. मशीन लर्निंग में, डाइनैमिक और ऑनलाइन आम तौर पर ये इस्तेमाल किए जाते हैं:

  • डाइनैमिक मॉडल (या ऑनलाइन मॉडल) ऐसा मॉडल होता है जिसे बार-बार या लगातार ट्रेनिंग दी जाती है.
  • डाइनैमिक ट्रेनिंग (या ऑनलाइन ट्रेनिंग) ट्रेनिंग की प्रोसेस है, जो लगातार या लगातार होती है.
  • डाइनैमिक अनुमान (ऑनलाइन अनुमान) मांग पर अनुमान जनरेट करने की प्रोसेस है.

डाइनैमिक मॉडल

#fundamentals

वह मॉडल फिर से सिखाया गया है जो अक्सर हो सकता है. डाइनैमिक मॉडल, "हमेशा सीखता रहने वाला व्यक्ति" होता है, जो लगातार बढ़ते हुए डेटा के हिसाब से ढल जाता है. डाइनैमिक मॉडल को ऑनलाइन मॉडल भी कहा जाता है.

स्टैटिक मॉडल के साथ कंट्रास्ट.

E

तय समय से पहले

#fundamentals

सामान्य बनाने का एक तरीका जिसमें ट्रेनिंग खत्म होने के पहले, ट्रेनिंग को खत्म करने का तरीका शामिल है. शुरुआत में ही, मॉडल को ट्रेनिंग देने की प्रोसेस को जान-बूझकर बंद कर दिया जाता है. ऐसा तब होता है, जब पुष्टि के डेटासेट की परफ़ॉर्मेंस कम होने लगती है. इसका मतलब है कि सामान्य मेट्रिक की परफ़ॉर्मेंस खराब होने पर.

एम्बेड की गई परत

#language
#fundamentals

खास छिपी हुई लेयर, जो हाई-डाइमेंशन वाली कैटगरी सुविधा पर ट्रेनिंग देती है. यह सुविधा, लंबे समय में कम डाइमेंशन एम्बेड करने वाले वेक्टर को सीखने के लिए काम करती है. एम्बेडिंग की लेयर, न्यूरल नेटवर्क को ज़्यादा बेहतर कैटगरी वाली ट्रेनिंग की तुलना में, ज़्यादा बेहतर तरीके से ट्रेनिंग देने में मदद करती है.

उदाहरण के लिए, फ़िलहाल धरती पर 73,000 प्रजातियों के पेड़ हैं. मान लें कि आपके मॉडल में पेड़ की प्रजातियां एक सुविधा है, इसलिए आपके मॉडल की इनपुट लेयर में एक एक-हॉट वेक्टर 73,000 एलिमेंट लंबा है. उदाहरण के लिए, शायद baobab कुछ इस तरह से दिखाया जाएगा:

73,000 एलिमेंट की कैटगरी. पहले 6,232 एलिमेंट,
     वैल्यू को होल्ड करते हैं. अगले एलिमेंट में वैल्यू 1 होती है. आखिरी 66,767 एलिमेंट में
     वैल्यू शून्य होती है.

73,000 एलिमेंट वाली श्रेणी बहुत लंबी है. अगर मॉडल में एम्बेड करने की कोई लेयर नहीं जोड़ी जाती है, तो 72,999 ज़ीरो को गुणा करने से ट्रेनिंग में काफ़ी समय लगेगा. हो सकता है कि आप एम्बेड करने की लेयर में 12 डाइमेंशन हों. इस वजह से, एम्बेड करने वाली लेयर धीरे-धीरे हर तरह के पेड़ के लिए एम्बेड करने वाला नया वेक्टर सीखना शुरू करेगी.

कुछ मामलों में, हैशिंग, एम्बेड करने की लेयर के लिए सही विकल्प है.

epoch

#fundamentals

पूरे ट्रेनिंग सेट में पूरा ट्रेनिंग पास, जैसे कि हर उदाहरण को एक बार प्रोसेस किया गया हो.

एक epoch N/बैच के साइज़ की ट्रेनिंग अपडेट दिखाता है. यहां N, उदाहरणों की कुल संख्या है.

उदाहरण के लिए, मान लें कि:

  • डेटासेट में 1,000 उदाहरण शामिल हैं.
  • बैच का साइज़ 50 उदाहरण है.

इसलिए, एक युग के लिए 20 दोहरावों की ज़रूरत है:

1 epoch = (N/batch size) = (1,000 / 50) = 20 iterations

उदाहरण

#fundamentals

सुविधाओं की एक पंक्ति की वैल्यू और शायद एक लेबल. निगरानी में रखे गए लर्निंग के उदाहरण दो सामान्य कैटगरी में आते हैं:

  • लेबल किए गए उदाहरण में एक या उससे ज़्यादा सुविधाएं और एक लेबल होता है. ट्रेनिंग के दौरान, लेबल किए गए उदाहरणों का इस्तेमाल किया जाता है.
  • बिना लेबल वाले उदाहरण में एक या ज़्यादा सुविधाएं होती हैं, लेकिन कोई लेबल नहीं होता. बिना लेबल वाले उदाहरणों का इस्तेमाल अनुमान के दौरान किया जाता है.

उदाहरण के लिए, मान लीजिए कि किसी मॉडल को ट्रेनिंग देकर यह पता लगाना है कि छात्र/छात्राओं के टेस्ट स्कोर पर मौसम का क्या असर पड़ता है. लेबल किए गए तीन उदाहरण ये हैं:

सुविधाएं लेबल
तापमान नमी दबाव टेस्ट स्कोर
15 47 998 पसंद आया
19 34 1020 बहुत बढ़िया
18 92 1012 खराब

यहां बिना लेबल वाले तीन उदाहरण दिए गए हैं:

तापमान नमी दबाव  
12 62 1014  
21 47 1017  
19 41 1021  

आम तौर पर, किसी डेटासेट की पंक्ति किसी उदाहरण का रॉ सोर्स होता है. इसका मतलब है कि आम तौर पर डेटासेट में कॉलम के सबसेट शामिल होते हैं. इसके अलावा, किसी उदाहरण की सुविधाओं में सिंथेटिक सुविधाएं भी शामिल हो सकती हैं, जैसे कि सुविधा क्रॉस.

शुक्र

फ़ॉल्स नेगेटिव (FN)

#fundamentals

इस मॉडल में, नेगेटिव क्लास का अनुमान गलती से लगाया जा चुका है. उदाहरण के लिए, मॉडल बताता है कि कोई खास ईमेल मैसेज स्पैम नहीं है (नेगेटिव क्लास है), लेकिन वह ईमेल मैसेज असल में स्पैम है.

फ़ॉल्स पॉज़िटिव (FP)

#fundamentals

इस उदाहरण में मॉडल से, पॉज़िटिव क्लास के बारे में गलत जानकारी दी गई है. उदाहरण के लिए, मॉडल यह अनुमान लगाता है कि कोई खास ईमेल मैसेज स्पैम (पॉज़िटिव क्लास) है, लेकिन ईमेल ईमेल असल में स्पैम नहीं है.

फ़ॉल्स पॉज़िटिव रेट (FPR)

#fundamentals

असल नेगेटिव उदाहरणों का अनुपात, जिनके लिए मॉडल ने गलती से पॉज़िटिव क्लास का अनुमान लगाया था. नीचे दिया गया फ़ॉर्मूला गलत सकारात्मक दर का हिसाब लगाता है:

$$\text{false positive rate} = \frac{\text{false positives}}{\text{false positives} + \text{true negatives}}$$

फ़ॉल्स पॉज़िटिव वैल्यू, आरओसी कर्व में x-ऐक्सिस है.

सुविधा

#fundamentals

मशीन लर्निंग मॉडल का एक इनपुट वैरिएबल. उदाहरण में एक या एक से ज़्यादा सुविधाएं शामिल होती हैं. उदाहरण के लिए, मान लीजिए आप छात्र/छात्रा के टेस्ट स्कोर पर मौसम की स्थिति के असर का पता लगाने के लिए किसी मॉडल की ट्रेनिंग ले रहे हैं. नीचे दी गई टेबल में तीन उदाहरण दिए गए हैं. हर उदाहरण में तीन सुविधाएं और एक लेबल शामिल है:

सुविधाएं लेबल
तापमान नमी दबाव टेस्ट स्कोर
15 47 998 92
19 34 1020 84
18 92 1012 87

लेबल के उलट लिखें.

फ़ीचर क्रॉस

#fundamentals

क्रॉसफ़ेस या बकेट सुविधाओं से बनी सिंथेटिक सुविधा.

उदाहरण के लिए, एक "दिल का अनुमान लगाने" वाले मॉडल पर विचार करें जो नीचे दिए गए चार बकेट में से किसी एक में तापमान को दिखाता हो:

  • freezing
  • chilly
  • temperate
  • warm

नीचे दी गई तीन बकेट में से किसी एक में हवा की रफ़्तार को दिखाता है:

  • still
  • light
  • windy

लाइन क्रॉस के बिना, लीनियर मॉडल पिछले सात अलग-अलग बकेट में से हर एक पर अलग-अलग ट्रेनिंग देता है. उदाहरण के लिए, यह मॉडल freezingwindy पर ही ट्रेनिंग देता है.

इसके अलावा, तापमान और हवा की रफ़्तार के बारे में बताने वाली एक सुविधा भी बनाई जा सकती है. इस सिंथेटिक सुविधा में नीचे दी गई 12 चीज़ें हो सकती हैं:

  • freezing-still
  • freezing-light
  • freezing-windy
  • chilly-still
  • chilly-light
  • chilly-windy
  • temperate-still
  • temperate-light
  • temperate-windy
  • warm-still
  • warm-light
  • warm-windy

इस सुविधा की मदद से, freezing-windy और freezing-still दिन के बीच के मूड में अंतर देखा जा सकता है.

अगर दो सुविधाओं से कोई सिंथेटिक सुविधा बनाई जाती है और उनमें से हर एक में कई अलग-अलग बकेट होती हैं, तो मिलने वाले फ़ीचर क्रॉस में कई संभावित कॉम्बिनेशन होंगे. उदाहरण के लिए, अगर एक सुविधा में 1,000 बकेट है और दूसरी सुविधा में 2,000 बकेट हैं, तो नतीजे में मिलने वाली सुविधाओं के क्रॉस में 20,00,000 बकेट हैं.

औपचारिक रूप से, यह एक कार्टेशियन प्रॉडक्ट होता है.

फ़ीचर क्रॉस का इस्तेमाल ज़्यादातर लीनियर मॉडल के साथ किया जाता है, लेकिन न्यूरल नेटवर्क के साथ उनका इस्तेमाल कभी-कभी ही किया जाता है.

फ़ीचर इंजीनियरिंग

#fundamentals
#TensorFlow

ऐसी प्रक्रिया जिसमें ये चरण शामिल हैं:

  1. किसी मॉडल की ट्रेनिंग के लिए, यह तय करना कि कौनसी सुविधाएं मददगार हो सकती हैं.
  2. डेटासेट से रॉ डेटा को उन सुविधाओं के बेहतर वर्शन में बदलना.

उदाहरण के लिए, यह पता चल सकता है कि temperature आपके लिए काम की सुविधा हो सकती है. इसके बाद, बकेटिंग का इस्तेमाल करके यह ऑप्टिमाइज़ करें कि मॉडल अलग-अलग temperature रेंज से क्या सीख सकता है.

फ़ीचर इंजीनियरिंग को कभी-कभी सुविधा निकालना कहा जाता है.

सुविधा सेट

#fundamentals

आपकी मशीन लर्निंग सुविधाओं का ग्रुप मॉडल ट्रेनिंग देता है. उदाहरण के लिए, पिन कोड, प्रॉपर्टी, और प्रॉपर्टी की शर्त, मॉडल के लिए एक आसान फ़ीचर सेट कर सकती है. इस मॉडल में, घर के किराये का अनुमान लगाया जाता है.

फ़ीचर वेक्टर

#fundamentals

सुविधा की वैल्यू की कैटगरी, जिसमें एक उदाहरण शामिल हो. सुविधा वेक्टर, ट्रेनिंग के दौरान और अनुमान के दौरान डाला जाता है. उदाहरण के लिए, दो अलग-अलग सुविधाओं वाले मॉडल के लिए फ़ीचर वेक्टर:

[0.92, 0.56]

चार लेयर: एक इनपुट लेयर, दो छिपी हुई लेयर, और एक आउटपुट लेयर.
          इनपुट लेयर में दो नोड हैं, एक में वैल्यू
          0.92 है और दूसरे में 0.56 वैल्यू है.

हर उदाहरण में, सुविधा वेक्टर के लिए अलग-अलग वैल्यू दी जाती हैं. इसलिए, अगले उदाहरण के लिए फ़ीचर वेक्टर कुछ ऐसा हो सकता है:

[0.73, 0.49]

सुविधा इंजीनियरिंग से यह तय होता है कि फ़ीचर वेक्टर में सुविधाओं को कैसे दिखाया जाए. उदाहरण के लिए, पांच संभावित वैल्यू वाली बाइनरी कैटगरी वाली सुविधा कोएक-हॉट एन्कोडिंग के साथ दिखाया जा सकता है. इस मामले में, किसी खास उदाहरण के लिए फ़ीचर वेक्टर के हिस्से में चार शून्य होंगे और तीसरे स्थान पर एक 1.0 होगा, जो इस तरह होगा:

[0.0, 0.0, 1.0, 0.0, 0.0]

दूसरे उदाहरण में, मान लें कि आपके मॉडल में तीन सुविधाएं शामिल हैं:

  • एक बाइनरी कैटगरी में मौजूद सुविधा के साथ एक हॉट-कोडिंग के साथ दिखाई जा सकने वाली पांच संभावित वैल्यू; उदाहरण के लिए: [0.0, 1.0, 0.0, 0.0, 0.0]
  • एक और बाइनरी कैटगरी वाली सुविधा, जिसमें तीन एक हॉट एन्कोडिंग के साथ दिखाई गई वैल्यू मौजूद हैं; उदाहरण के लिए: [0.0, 0.0, 1.0]
  • फ़्लोटिंग-पॉइंट की सुविधा: उदाहरण के लिए: 8.3.

इस मामले में, हर उदाहरण के लिए फ़ीचर वेक्टर को नौ वैल्यू से दिखाया जाएगा. पिछली सूची में उदाहरण के तौर पर दी गई वैल्यू को ध्यान में रखते हुए, सुविधा वेक्टर ऐसा होगा:

0.0
1.0
0.0
0.0
0.0
0.0
0.0
1.0
8.3

फ़ीडबैक लूप

#fundamentals

मशीन लर्निंग में, ऐसी स्थिति जिसमें किसी मॉडल का अनुमान एक ही मॉडल या किसी दूसरे मॉडल के ट्रेनिंग डेटा पर असर डालता है. उदाहरण के लिए, फ़िल्मों का सुझाव देने वाला मॉडल, लोगों को दिखने वाली फ़िल्मों पर असर डालेगा. इससे, बाद में फ़िल्मों के सुझाव वाले मॉडल पर असर पड़ेगा.

G

सामान्यीकरण

#fundamentals

मॉडल की मदद से, नए और पहले न देखे गए डेटा के आधार पर, सही अनुमान लगाया जा सकता है. सामान्य हो सकने वाला मॉडल, ओवरफ़िटिंगके मॉडल से अलग होता है.

सामान्यीकरण वक्र

#fundamentals

यात्रा की अवधि और पुष्टि का नुकसान, दोनों की सुविधा के लिए एक प्लॉट है. इसे इटरेशन की संख्या के तौर पर दिखाया गया है.

सामान्यीकरण कर्व की मदद से, संभावित ओवरफ़िटिंग का पता लगाया जा सकता है. उदाहरण के लिए, नीचे दिया गया सामान्यीकरण कर्व ज़्यादा फ़िटिंग का सुझाव देता है, क्योंकि पुष्टि में होने वाली कमी, ट्रेनिंग के नुकसान से काफ़ी ज़्यादा बढ़ जाती है.

कार्टेज़ियन ग्राफ़, जिसमें y-ऐक्सिस को &#39;लॉस&#39; और x-ऐक्सिस को &#39;इटरेशन&#39; का लेबल दिया गया है. दो प्लॉट दिखते हैं. एक प्लॉट में,
          ट्रेनिंग में हुई गड़बड़ी को दिखाया गया है और दूसरे में ऐप्लिकेशन की पुष्टि करने में हुई कमी को दिखाया गया है.
          दो प्लॉट एक जैसे ही शुरू होते हैं, लेकिन पुष्टि की वजह से होने वाली ट्रेनिंग की संख्या
          समय के साथ काफ़ी कम हो जाती है.

ग्रेडिएंट ढलान

#fundamentals

लॉस से जुड़ी समस्या को कम करने के लिए, एक मैथड तकनीक. ग्रेडिएंट वंश का क्रम बार-बार वज़न और बायस अडजस्ट करता है. साथ ही, नुकसान को कम करने के लिए, धीरे-धीरे सबसे अच्छा कॉम्बिनेशन ढूंढता है.

ग्रेडिएंट ढलान मशीन लर्निंग के मुकाबले पुरानी है. बहुत पुरानी है.

ग्राउंड ट्रूथ

#fundamentals

रिएलिटी.

असल में क्या हुआ.

उदाहरण के लिए, बाइनरी की कैटगरी तय करने के मॉडल का इस्तेमाल करके, यह अनुमान लगाया जा सकता है कि यूनिवर्सिटी के पहले साल में पढ़ने वाला छात्र-छात्राएं छह साल के अंदर ग्रैजुएट हो जाएगा. इस मॉडल के हिसाब से यह सच्चाई है कि छात्र ने छह साल के अंदर पास किया है या नहीं.

H

छिपी हुई लेयर

#fundamentals

इनपुट लेयर (सुविधाओं) और आउटपुट लेयर (अनुमान) के बीच के न्यूरल नेटवर्क में लेयर. छिपी हुई हर लेयर में, एक या एक से ज़्यादा न्यूरॉन होते हैं. उदाहरण के लिए, नीचे दिए गए न्यूरल नेटवर्क में दो छिपी हुई लेयर हैं: पहला तीन न्यूरॉन के साथ और दूसरा दो न्यूरॉन के साथ:

चार लेयर. पहली लेयर, दो लेयर वाली एक इनपुट लेयर है. दूसरी लेयर एक छिपी हुई लेयर है, जिसमें तीन न्यूरॉन मौजूद हैं. तीसरी लेयर एक छिपी हुई लेयर है, जिसमें दो न्यूरॉन हैं. चौथी लेयर, आउटपुट लेयर है. हर सुविधा के
 तीन किनारे होते हैं, हर एक ऑब्जेक्ट दूसरी लेयर में एक अलग न्यूरॉन
 की ओर इशारा करता है. दूसरी लेयर में मौजूद हर न्यूरॉन में दो किनारे होते हैं, जिनमें से हर किनारा तीसरी लेयर में एक अलग न्यूरॉन की ओर संकेत करता है. तीसरी परत में मौजूद हर न्यूरॉन में एक किनारा होता है, जो आउटपुट लेयर पर ले जाता है.

डीप न्यूरल नेटवर्क में, एक से ज़्यादा छिपी हुई लेयर होती है. उदाहरण के लिए, पहले का इलस्ट्रेशन एक डीप न्यूरल नेटवर्क है, क्योंकि मॉडल में दो छिपी हुई लेयर हैं.

हाइपर पैरामीटर

#fundamentals

किसी वैरिएबल या हाइपरपैरामीटर ट्यूनिंग सेवा की शर्तें किसी मॉडल को ट्रेनिंग देने के दौरान, लगातार चलने वाली वैरिएबल सेटिंग. उदाहरण के लिए, लर्निंग रेट एक हाइपरपैरामीटर है. आप एक ट्रेनिंग सेशन से पहले, लर्निंग रेट को 0.01 पर सेट कर सकते हैं. अगर आप 0.01 की वैल्यू बहुत ज़्यादा तय करते हैं, तो हो सकता है कि अगले ट्रेनिंग सेशन के लिए, आप लर्निंग रेट को 0.003 पर सेट करें.

इसके उलट, पैरामीटर ऐसे कई वज़न और बायस हैं जिन्हें मॉडल, ट्रेनिंग के दौरान सीखता है.

I

स्वतंत्र रूप से और समान रूप से वितरित (i.i.d)

#fundamentals

ऐसे डिस्ट्रिब्यूशन से लिया गया डेटा जो नहीं बदलता है और हर वैल्यू, ड्रॉ की गई वैल्यू पर निर्भर नहीं करती है. एक मशीनी मशीन यानी गैस एक ऐसी मशीन है जिसे गणित के लिए बनाया गया है और यह असल दुनिया में कभी नहीं मिलती. उदाहरण के लिए, किसी वेब पेज पर आने वाले लोगों का बंटवारा, थोड़े समय के लिए हो सकता है. इसका मतलब है कि उस छोटी अवधि के दौरान डिस्ट्रिब्यूशन नहीं बदलेगा और किसी व्यक्ति की विज़िट आम तौर पर किसी दूसरे की विज़िट से अलग होगी. हालांकि, अगर आप इस विंडो को बड़ा करते हैं, तो वेब पेज पर आने वाले लोगों को सीज़न के हिसाब से अंतर दिख सकता है.

अस्थिरता भी देखें.

अनुमान

#fundamentals

मशीन लर्निंग में, बिना लेबल वाले उदाहरणों पर ट्रेनिंग वाला मॉडल लागू करके, अनुमान लगाने की प्रोसेस.

आंकड़ों में अनुमान कुछ अलग मतलब है. ज़्यादा जानकारी के लिए, आंकड़ों के अनुमान के बारे में Wikipedia का लेख पढ़ें.

इनपुट लेयर

#fundamentals

न्यूरल नेटवर्क की लेयर, जिसमें फ़ीचर वेक्टर होता है. इसका मतलब है कि इनपुट लेयर, ट्रेनिंग या अनुमान के लिए उदाहरण देता है. उदाहरण के लिए, नीचे दिए गए न्यूरल नेटवर्क के इनपुट लेयर में दो सुविधाएं होती हैं:

चार लेयर: एक इनपुट लेयर, दो छिपी हुई लेयर, और एक आउटपुट लेयर.

समझ

#fundamentals

मशीन लर्निंग (एमएल) मॉडल को लोगों को समझाने या समझाने के लिए जवाब देने की सुविधा.

उदाहरण के लिए, लीनियर रिग्रेशन के ज़्यादातर मॉडल को आसानी से समझा जा सकता है. (आपको हर सुविधा के लिए सिर्फ़ प्रशिक्षित वेट देखना होगा.) फ़ैसला लेने वाले जंगल भी एकदम सटीक होते हैं. हालांकि, कुछ मॉडल को पूरी जानकारी के साथ बेहतर तरीके से विज़ुअलाइज़ करना ज़रूरी होता है.

मशीन लर्निंग (एमएल) मॉडल को समझने के लिए, लर्निंग इंटरऑपरेबिलिटी टूल (एलआईटी) का इस्तेमाल किया जा सकता है.

इटरेशन

#fundamentals

मॉडल के पैरामीटर का एक अपडेट. इस मॉडल में वज़न और बायसट्रेनिंग के दौरान होते हैं. बैच का साइज़ यह तय करता है कि मॉडल, एक ही बार में कितने उदाहरणों को प्रोसेस करता है. उदाहरण के लिए, अगर बैच का साइज़ 20 है, तो मॉडल में बदलाव करने से पहले 20 उदाहरण प्रोसेस किए जाते हैं.

न्यूरल नेटवर्क की ट्रेनिंग के दौरान, सिर्फ़ एक बार इन दो पास को शामिल किया जाता है:

  1. किसी एक बैच में हुए नुकसान का आकलन करने के लिए एक फ़ॉरवर्ड पास.
  2. घटाने या सीखने की दर के आधार पर, मॉडल के पैरामीटर को अडजस्ट करने के लिए, एक बैकवर्ड पास (बैकप्रॉपेशन).

L

L00 रेगुलराइज़ेशन

#fundamentals

एक तरह का रेगुलराइज़ेशन, जो किसी मॉडल में शून्य के कुल वज़न को बताता है. उदाहरण के लिए, 11 गैर-भार वाले मॉडल को 10 गैर-शून्य वज़न वाले मॉडल की तुलना में ज़्यादा नुकसान होगा.

L00 को नियमित करने को कभी-कभी L0-norm रेगुलराइज़ेशन भी कहा जाता है.

L1लॉस

#fundamentals

लॉस फ़ंक्शन, जो लेबल की असल वैल्यू और मॉडल के अनुमान के बीच के सटीक मान का हिसाब लगाता है. उदाहरण के लिए, यहां पांच में से बैच का बैच रखने का हिसाब उदाहरण दिया गया है:

उदाहरण की असल वैल्यू मॉडल की अनुमानित वैल्यू डेल्टा का कुल मूल्य
7 6 1
5 4 1
8 11 3
4 6 2
9 8 1
  8 = L1 का नुकसान

1 के नुकसान की वजह से, L2 के नुकसान की तुलना में आउटलायर का नुकसान कम होता है.

औसतन कुल गड़बड़ी, हर उदाहरण में औसतन L1 की कमी है.

L1 नियमित बनाने का तरीका

#fundamentals

रेगुलराइज़ेशन एक ऐसा टाइप है, जो वेट के कुल वैल्यू के योग के हिसाब से वज़न कम करता है. 1 नियमित बनाने से, काम की या काम की सुविधाओं के महत्व को बिलकुल सटीक तरीके से तय करने में मदद मिलती है. मॉडल के इस वर्शन की सुविधा को 0 से बेहतर तरीके से हटाया गया.

L2 रेगुलराइज़ेशन के उलट.

L2लॉस

#fundamentals

लॉस फ़ंक्शन, जो लेबल की असल वैल्यू और मॉडल की वैल्यू के अनुमान के अंतर को कैलकुलेट करता है. उदाहरण के लिए, यहां पांच में से बैच के बैच का कैलकुलेशन यहां दिया गया है:उदाहरण:

उदाहरण की असल वैल्यू मॉडल की अनुमानित वैल्यू डेल्टा का वर्ग
7 6 1
5 4 1
8 11 9
4 6 4
9 8 1
  16 = 2 लॉस

भूकंप की वजह से,2 में नुकसान की वजह से, आउटलायर का असर बढ़ जाता है. इसका मतलब है कि खराब होने की संभावना पर,2 लॉस की वजह से, L1लॉस का नुकसान ज़्यादा होता है. उदाहरण के लिए, पिछले बैच के लिए 1 का नुकसान 16 के बजाय 8 होगा. ध्यान दें कि अगर कोई सिंगल आउटलार है, तो वह 16 में से 9 होता है.

रिग्रेशन मॉडल के आम तौर पर, लॉस फ़ंक्शन के तौर पर L2 का इस्तेमाल किया जाता है.

हर उदाहरण में, वर्गित वर्ग की गड़बड़ी औसतन L2 कम होती है. वर्गीय हानि L2 के नुकसान का एक और नाम भी है.

L22 रेगुलराइज़ेशन

#fundamentals

वज़न के स्क्वेयर के योग के हिसाब से, वज़न बढ़ाने वाला रेगुलराइज़ेशन. 2 रेगुलराइज़ेशन की मदद से, आउटलायर के वेट को (0 बहुत ज़्यादा पॉज़िटिव या कम नेगेटिव वैल्यू वाले) बढ़ाकर 0 के करीब किया जा सकता है, लेकिन बिलकुल 0 नहीं. जिन सुविधाओं के मान 0 के करीब होते हैं, वे मॉडल में बने रहते हैं, लेकिन मॉडल के अनुमान पर बहुत ज़्यादा असर नहीं डालते.

2समय के साथ होने वाले बदलाव से लीनियर मॉडल में सुधार होता है.

L1 रेगुलराइज़ेशन में कंट्रास्ट.

लेबल

#fundamentals

निगरानी में रखा गया मशीन लर्निंग, यह उदाहरण का "जवाब" या "नतीजे" का हिस्सा है.

लेबल किए गए हर उदाहरण में एक या एक से ज़्यादा सुविधाएं और एक लेबल होता है. उदाहरण के लिए, स्पैम का पता लगाने वाले डेटासेट में, लेबल या तो "स्पैम" होगा या "स्पैम नहीं". बारिश के डेटासेट में, किसी खास अवधि के दौरान हुई बारिश की मात्रा को लेबल कहा जा सकता है.

लेबल का उदाहरण

#fundamentals

एक या एक से ज़्यादा सुविधाओं और लेबल वाला उदाहरण. उदाहरण के लिए, नीचे दी गई टेबल में, हाउस इवैलुएशन मॉडल के तीन लेबल किए गए उदाहरण दिए गए हैं. हर उदाहरण में तीन सुविधाएं और एक लेबल दिया गया है:

कमरों की संख्या बाथरूम की संख्या घर की उम्र घर की कीमत (लेबल)
3 2 15 3,45,000 डॉलर
2 1 72 1,79,000 डॉलर
4 2 34 3,92,000 डॉलर

निगरानी में रखे गए मशीन लर्निंग, मॉडल की मदद से, लेबल किए गए उदाहरणों के मुताबिक ट्रेनिंग ली जाती है और बिना लेबल वाले उदाहरणों का अनुमान लगाया जाता है.

बिना लेबल वाले उदाहरणों के साथ कंट्रास्ट से लेबल किया गया उदाहरण.

Lambda

#fundamentals

नियमित बनाने की दर का समानार्थी शब्द.

Lambda शब्द ओवरलोड हुआ है. यहां हम regularation के अंदर इस शब्द की परिभाषा पर फ़ोकस कर रहे हैं.

लेयर

#fundamentals

न्यूरल का एक सेट, न्यूरल नेटवर्क में. लेयर के तीन सामान्य प्रकार इस तरह हैं:

उदाहरण के लिए, नीचे दिया गया इलस्ट्रेशन एक इनपुट लेयर, दो छिपी हुई लेयर, और एक आउटपुट लेयर वाला न्यूरल नेटवर्क दिखाता है:

एक इनपुट नेटवर्क, जिसमें एक इनपुट लेयर, दो छिपी हुई लेयर, और एक
          आउटपुट लेयर होती है. इनपुट लेयर में दो सुविधाएं होती हैं. पहली छिपी हुई लेयर में तीन न्यूरॉन हैं और दूसरी छिपी हुई लेयर में दो न्यूरॉन हैं. आउटपुट लेयर में एक नोड होता है.

TensorFlow में, लेयर भी Python फ़ंक्शन हैं, जो Tensor और कॉन्फ़िगरेशन के विकल्प को इनपुट के तौर पर इस्तेमाल करते हैं. साथ ही, ये अन्य टेंसर को आउटपुट के तौर पर दिखाते हैं.

सीखने की दर

#fundamentals

फ़्लोटिंग-पॉइंट की संख्या से ग्रेडिएंट की ढलान की जानकारी मिलती है. यह एल्गोरिदम दिखाता है कि हर इटरेशन पर वज़न और पक्षपात को किस हद तक एडजस्ट किया जाए. उदाहरण के लिए, 0.3 की लर्निंग रेट, 0.1 की लर्निंग रेट की तुलना में, वज़न और झुकाव को तीन गुना ज़्यादा बेहतर तरीके से अडजस्ट करेगी.

लर्निंग रेट से जुड़ी जानकारी, हाइपरपैरामीटर में मिलती है. अगर लर्निंग रेट बहुत कम है, तो ट्रेनिंग में बहुत ज़्यादा समय लगेगा. अगर सीखने की दर बहुत ज़्यादा है, तो ग्रेडिएंट डाउन होने से अक्सर कन्वर्ज़न तक पहुंचने में परेशानी होती है.

लीनियर मॉडल

#fundamentals

मॉडल, जो अनुमान बनाने के लिए, हर सुविधा के लिए एक वज़न असाइन करता है. (लीनियर मॉडल में बायस भी शामिल होता है.) इसके उलट, डीप मॉडल के सुझावों के साथ मिलने वाली सुविधाओं के बारे में आम तौर पर nonlinear होता है.

लीनियर मॉडल आम तौर पर, डीप मॉडल की तुलना में ट्रेनिंग और ज़्यादा आसान होते हैं. हालांकि, डीप मॉडल में सुविधाओं के के बीच जटिल संबंध के बारे में जाना जा सकता है.

लीनियर रिग्रेशन और लॉजिस्टिक रिग्रेशन दो तरह के लीनियर मॉडल होते हैं.

रेखीय

#fundamentals

दो या ज़्यादा वैरिएबल के बीच का संबंध, जिसे सिर्फ़ जोड़ने और गुणा करके दिखाया जा सकता है.

लीनियर रिलेशनशिप की लाइन एक लाइन होती है.

nonlinear के उलट लिखें.

लीनियर रिग्रेशन

#fundamentals

एक तरह का मशीन लर्निंग मॉडल, जिसमें ये दोनों चीज़ें सही हैं:

लॉजिस्टिक रिग्रेशन के साथ कंट्रास्ट लीनियर रिग्रेशन. साथ ही, क्लासिफ़िकेशन की मदद से कंट्रास्ट रिग्रेशन करें.

लॉजिस्टिक रिग्रेशन

#fundamentals

रिग्रेशन मॉडल का टाइप, जो अनुमान का अनुमान लगाता है. लॉजिस्टिक रिग्रेशन मॉडल में ये बातें बताई जाती हैं:

  • लेबल कैटगरी है. आम तौर पर, लॉजिस्टिक रिग्रेशन शब्द का इस्तेमाल बाइनरी लॉजिस्टिक रिग्रेशन से होता है. इसका मतलब है कि इस मॉडल में, दो संभावित वैल्यू वाले लेबल के लिए प्रॉबेबिलिटी का हिसाब लगाया जाता है. एक कम समान वैरिएंट, मल्टीनोमियल लॉजिस्टिक रिग्रेशन, दो से ज़्यादा संभावित वैल्यू वाले लेबल के लिए संभावनाओं का हिसाब लगाता है.
  • ट्रेनिंग के दौरान, लॉस फ़ंक्शन लॉग लॉस होता है. (दो से ज़्यादा संभावित वैल्यू वाले लेबल के लिए, लॉग लॉस की एक से ज़्यादा इकाइयां रखी जा सकती हैं.)
  • इस मॉडल में लीनियर आर्किटेक्चर है, न कि डीप न्यूरल नेटवर्क. हालांकि, इस परिभाषा का बाकी हिस्सा डीप मॉडल पर भी लागू होता है, जो कैटगरी के लेबल के लिए इन संभावनाओं का अनुमान लगाते हैं.

उदाहरण के लिए, एक लॉजिस्टिक रिग्रेशन मॉडल देखें. इसमें किसी इनपुट ईमेल के स्पैम होने या न होने की संभावना का हिसाब लगाया जाता है. अनुमान के दौरान, मान लें कि मॉडल 0.72 अनुमान लगाता है इसलिए, मॉडल से यह अनुमान लगाया जा रहा है:

  • इस बात की 72% संभावना है कि ईमेल स्पैम हो.
  • इस बात की 28% संभावना है कि ईमेल स्पैम नहीं है.

लॉजिस्टिक रिग्रेशन मॉडल के लिए यहां दो चरणों वाले आर्किटेक्चर का इस्तेमाल किया जाता है:

  1. यह मॉडल, इनपुट सुविधाओं का लीनियर फ़ंक्शन लागू करके, अनुमान (y) का अनुमान लगाता है.
  2. मॉडल, रॉ अनुमान का इस्तेमाल, सिग्मॉइड फ़ंक्शन में इनपुट के तौर पर करता है. इससे, रॉ अनुमान को 0 और 1 के बीच की वैल्यू में बदल दिया जाता है.

किसी रिग्रेशन मॉडल की तरह, लॉजिस्टिक रिग्रेशन मॉडल भी किसी संख्या का अनुमान लगाता है. आम तौर पर, यह संख्या, बाइनरी क्लासिफ़िकेशन मॉडल का हिस्सा बन जाती है, जो इस तरह है:

  • अगर अनुमानित संख्या क्लासिफ़िकेशन थ्रेशोल्ड से ज़्यादा है, तो बाइनरी क्लासिफ़िकेशन मॉडल, पॉज़िटिव क्लास का अनुमान लगाता है.
  • अगर अनुमानित संख्या, क्लासिफ़िकेशन थ्रेशोल्ड से कम है, तो बाइनरी क्लासिफ़िकेशन मॉडल, नेगेटिव क्लास का अनुमान लगाता है.

लॉग लॉस

#fundamentals

बाइनरी लॉजिस्टिक रिग्रेशन में इस्तेमाल किया गया लॉस फ़ंक्शन.

लॉग-ओड

#fundamentals

कुछ इवेंट की संभावनाओं का लघुगणक.

हार

#fundamentals

निगरानी वाले मॉडल की ट्रेनिंग के दौरान, यह देखा जाता है कि मॉडल का अनुमान, लेबल से कितनी दूर है.

लॉस फ़ंक्शन, नुकसान का हिसाब लगाता है.

हानि वक्र

#fundamentals

ट्रेनिंग बार-बार होने वाले सेशन में शामिल होने के लिए, लॉस का प्लॉट. नीचे दिया गया चार्ट, आम तौर पर होने वाले नुकसान के बारे में है:

शुरुआत में बार-बार होने वाले नुकसान की तुलना में, कार्टेशियन ग्राफ़, जिसमें बार-बार होने वाले गिरावट का असर दिखता है. इसमें, धीरे-धीरे गिरावट आती है और फिर बार-बार गिरावट होती है.

हार वाले कर्व की मदद से, यह तय किया जा सकता है कि आपका मॉडल कब कन्वर्ज़न इकट्ठा कर रहा है या ज़रूरत के हिसाब से ज़्यादा सही है.

लॉस कर्व इन सभी तरह के नुकसान को प्लॉट कर सकता है:

सामान्यीकरण कर्व भी देखें.

हानि फ़ंक्शन

#fundamentals

ट्रेनिंग या टेस्टिंग के दौरान, एक ऐसा मैथमैटिक फ़ंक्शन जो उदाहरणों के बैच में नुकसान का हिसाब लगाता है. हानि फ़ंक्शन उन मॉडल के लिए कम नुकसान करता है जो खराब अनुमान देने वाले मॉडल की तुलना में अच्छा अनुमान देते हैं.

आम तौर पर, इस सुविधा का मकसद नुकसान पहुंचाने वाले फ़ंक्शन से मिलने वाले नुकसान को कम करना होता है.

नुकसान के कई तरह के फ़ंक्शन मौजूद हैं. जिस तरह का मॉडल बनाया जा रहा है उसके लिए सही फ़ंक्शन चुनें. उदाहरण के लिए:

सोम

मशीन लर्निंग

#fundamentals

ऐसा प्रोग्राम या सिस्टम जो इनपुट डेटा से एक मॉडल को ट्रेन करता है. प्रशिक्षित मॉडल, डेटा को उस ट्रेनिंग के आधार पर तैयार कर सकता है जो पहले कभी नहीं देखा गया है. यह डेटा, मॉडल को ट्रेनिंग देने के लिए इस्तेमाल किया गया था.

मशीन लर्निंग का मतलब इन प्रोग्राम या सिस्टम से जुड़ी स्टडी के क्षेत्र से भी है.

ज़्यादातर क्लास

#fundamentals

यह कक्षा-असंभावित डेटासेट में ज़्यादा सामान्य लेबल है. उदाहरण के लिए, 9:

माइनर क्लास के साथ कंट्रास्ट.

मिनी बैच

#fundamentals

बिना किसी क्रम के चुने गए बैच का एक छोटा सबसेट, इटरेशन में प्रोसेस किया जाता है. आम तौर पर, छोटे बैच के बैच का साइज़ 10 से 1,000 उदाहरणों के बीच होता है.

उदाहरण के लिए, मान लीजिए कि पूरे ट्रेनिंग सेट (पूरा बैच) में 1,000 उदाहरण हैं. इसके अलावा, मान लें कि आपने हर छोटे बैच का बैच साइज़ 20 पर सेट किया है. इसलिए, हर बार 1,000 उदाहरणों में से 20 उदाहरण से हर नुकसान से होने वाली कमी को तय किया जाता है. इसके बाद, उसी हिसाब से वज़न और बायस में बदलाव करता है.

पूरे बैच में मौजूद सभी उदाहरणों से होने वाले नुकसान की तुलना में, छोटे बैच पर होने वाले नुकसान का आकलन करना ज़्यादा कारगर है.

अल्पसंख्यक वर्ग

#fundamentals

कक्षा-असंतुलित डेटासेट में कम सामान्य लेबल. उदाहरण के लिए, जो डेटासेट में 99% नेगेटिव लेबल और 1% पॉज़िटिव लेबल हैं, जो पॉज़िटिव लेबल हैं वे माइनर क्लास हैं.

मैजोरिटी क्लास के कॉन्ट्रास्ट का इस्तेमाल करें.

मॉडल

#fundamentals

आम तौर पर, कोई भी गणित से जुड़ी ऐसी संरचना जो इनपुट का डेटा प्रोसेस करती है और आउटपुट देती है. इसे अलग तरह से कहा जाए, तो यह मॉडल और स्ट्रक्चर का एक सेट होता है. सिस्टम के लिए अनुमान लगाने के लिए, यह ज़रूरी होता है. निगरानी में रखी गई मशीन लर्निंग, इस मॉडल में इनपुट के तौर पर उदाहरण लिया जाता है. साथ ही, आउटपुट के तौर पर अनुमान का अनुमान लगाया जाता है. निगरानी में रखी गई मशीन लर्निंग में, मॉडल कुछ अलग होते हैं. उदाहरण के लिए:

  • एक लीनियर रिग्रेशन मॉडल में वज़न और बायस का एक सेट होता है.
  • न्यूरल नेटवर्क मॉडल में ये चीज़ें होती हैं:
    • छिपी हुई लेयर का एक सेट, जिसमें हर एक में एक या एक से ज़्यादा न्यूरॉन होते हैं.
    • हर न्यूरॉन के वज़न और झुकाव की जानकारी.
  • डिसिज़न ट्री मॉडल में ये चीज़ें होती हैं:
    • पेड़ का आकार, यानी वह पैटर्न जिसमें शर्तें और पत्तियां जुड़ी होती हैं.
    • शर्तें और पता.

आप मॉडल को सेव कर सकते हैं, उसे वापस ला सकते हैं या उसकी कॉपी बना सकते हैं.

बिना निगरानी वाली मशीन लर्निंग भी मॉडल जनरेट करती है. आम तौर पर, यह एक ऐसा फ़ंक्शन होता है जो इनपुट के उदाहरण को सबसे सही क्लस्टर से मैप कर सकता है.

कक्षा के हिसाब से डेटा की कैटगरी

#fundamentals

निगरानी में रखे गए लर्निंग में, क्लासिफ़िकेशन की एक समस्या है. इसमें डेटासेट में लेबल के दो से ज़्यादा क्लास होते हैं. उदाहरण के लिए, आइरिस डेटासेट के लेबल नीचे दी गई तीन क्लास में से एक होने चाहिए:

  • आइरिस सेटोसा
  • आइरिस वर्जीनिका
  • आइरिस वर्सिकलर

आइरिस डेटासेट के लिए तैयार किया गया मॉडल, जो नए उदाहरण के मुताबिक, आइरिस के टाइप का अनुमान लगाता है वह कई कैटगरी में डेटा की कैटगरी तय कर रहा है.

इसके उलट, दो कैटगरी के बीच अंतर करने वाली क्लासिफ़िकेशन की समस्याएं, बाइनरी क्लासिफ़िकेशन मॉडल हैं. उदाहरण के लिए, स्पैम या स्पैम नहीं का अनुमान लगाने वाला ईमेल मॉडल, बाइनरी क्लासिफ़िकेशन मॉडल है.

क्लस्टरिंग समस्याओं में, कई वर्ग के वर्गीकरण में दो से ज़्यादा क्लस्टर शामिल होते हैं.

N

नेगेटिव क्लास

#fundamentals

बाइनरी क्लासिफ़िकेशन में, एक क्लास को पॉज़िटिव और दूसरी क्लास को नेगेटिव कहा जाता है. पॉज़िटिव क्लास वह चीज़ या इवेंट होती है जिसके लिए मॉडल टेस्ट कर रहा होता है और नेगेटिव क्लास अन्य संभावना होती है. उदाहरण के लिए:

  • मेडिकल टेस्ट में नेगेटिव क्लास "ट्यूमर नहीं" हो सकती है.
  • ईमेल क्लासिफ़ायर में नेगेटिव क्लास "स्पैम नहीं" हो सकती है.

पॉज़िटिव क्लास के कॉन्ट्रास्ट का इस्तेमाल करें.

न्यूरल नेटवर्क

#fundamentals

मॉडल, जिसमें कम से कम एक छिपी हुई लेयर हो. डीप न्यूरल नेटवर्क एक तरह का न्यूरल नेटवर्क है, जिसमें एक से ज़्यादा छिपी हुई लेयर होती हैं. उदाहरण के लिए, नीचे दिया गया डायग्राम दो डीप लेयर वाला न्यूरल नेटवर्क दिखाता है.

एक इनपुट नेटवर्क, जिसमें इनपुट लेयर, दो छिपी हुई लेयर, और
          एक आउटपुट लेयर होती है.

न्यूरल नेटवर्क में हर न्यूरॉन, अगली लेयर में मौजूद सभी नोड से कनेक्ट होता है. उदाहरण के लिए, पिछले डायग्राम में ध्यान दें कि पहली छिपी हुई लेयर में मौजूद तीन न्यूरॉन में से हर तीन न्यूरॉन, दोनों छिपी हुई लेयर में अलग-अलग कनेक्ट होते हैं.

कंप्यूटर पर लागू किए गए न्यूरल नेटवर्क को कभी-कभी आर्टिफ़िशियल न्यूरल नेटवर्क कहा जाता है. इससे, वे दिमाग और अन्य नर्वस सिस्टम में मौजूद न्यूरल नेटवर्क से अलग हो जाते हैं.

कुछ न्यूरल नेटवर्क, अलग-अलग सुविधाओं और लेबल के बीच एक जैसे जटिल रिश्तों की नकल कर सकते हैं.

साथ ही, न्यूरल न्यूरल नेटवर्क और बार-बार आने वाला न्यूरल नेटवर्क भी देखें.

न्यूरॉन

#fundamentals

मशीन लर्निंग में, न्यूरल नेटवर्क की छिपी हुई लेयर में एक अलग यूनिट. हर न्यूरॉन नीचे दी गई दो चरणों वाली कार्रवाई करता है:

  1. इनपुट वैल्यू के वेटेड योग को उनके संबंधित वेट से गुणा करने पर मिलने वाली वैल्यू का हिसाब लगाता है.
  2. अहमियत वाले योग को ऐक्टिवेशन फ़ंक्शन में इनपुट के तौर पर भेजता है.

पहली छिपी हुई लेयर में मौजूद न्यूरॉन, इनपुट लेयर में सुविधा वैल्यू से इनपुट स्वीकार करता है. छिपी हुई पहली लेयर में मौजूद न्यूरॉन, पहली छिपी हुई लेयर में मौजूद न्यूरॉन से मिलने वाले इनपुट को स्वीकार करता है. उदाहरण के लिए, दूसरी छिपी हुई लेयर में मौजूद न्यूरॉन, पहली छिपी हुई लेयर में मौजूद न्यूरॉन से इनपुट स्वीकार करता है.

नीचे दिया गया उदाहरण, दो न्यूरॉन और उनके इनपुट को हाइलाइट करता है.

एक इनपुट नेटवर्क, जिसमें इनपुट लेयर, दो छिपी हुई लेयर, और
          एक आउटपुट लेयर होती है. दो न्यूरॉन को हाइलाइट किया जाता है: एक पहली छिपी हुई लेयर में
          और दूसरी छिपी हुई लेयर में. पहली छिपी हुई लेयर में हाइलाइट किए गए न्यूरॉन को, इनपुट लेयर में दोनों सुविधाओं से इनपुट मिलता है. दूसरी छिपी हुई लेयर में हाइलाइट किया गया न्यूरॉन, पहली छिपी हुई लेयर में मौजूद तीन न्यूरॉन में से हर एक से इनपुट लेता है.

तंत्रिका नेटवर्क में एक न्यूरॉन, दिमाग और तंत्रिका तंत्र के अन्य हिस्सों में न्यूरॉन के व्यवहार की नकल करती है.

नोड (न्यूरल नेटवर्क)

#fundamentals

छिपी हुई लेयर में मौजूद न्यूरॉन.

नॉनलीनियर

#fundamentals

दो या दो से ज़्यादा वैरिएबल के बीच का संबंध, जिसे सिर्फ़ जोड़ने और गुणा करने से दिखाया न जा सके. लीनियर रिलेशनशिप को एक लाइन के तौर पर दिखाया जा सकता है, nonlinear रिलेशन को लाइन के तौर पर नहीं दिखाया जा सकता. उदाहरण के लिए, ऐसे दो मॉडल के बारे में सोचें जो हर सुविधा को किसी एक लेबल से जोड़ता हो. बाईं ओर वाला मॉडल लीनियर है और दाईं ओर वाला मॉडल लीनियर है:

दो प्लॉट. एक प्लॉट एक लाइन होता है, इसलिए यह लीनियर रिलेशनशिप होता है.
          दूसरा प्लॉट एक कर्व है, इसलिए यह नॉनलीनियर रिलेशनशिप है.

नॉनस्पैरंसी

#fundamentals

वह सुविधा जिसके मान आम तौर पर एक या एक से ज़्यादा डाइमेंशन में बदलते हैं. उदाहरण के लिए, नॉन-ट्रांसपैरंसी के इन उदाहरणों पर ध्यान दें:

  • किसी खास स्टोर में बेचे जाने वाले स्विमसूट की संख्या, सीज़न के हिसाब से अलग-अलग होती है.
  • हालांकि, किसी खास इलाके में काटे गए फलों की कुल संख्या शून्य साल तक शून्य रहती है. हालांकि, यह अवधि कुछ समय के लिए बड़ी रहती है.
  • जलवायु परिवर्तन की वजह से, सालाना औसत तापमान बदल रहा है.

स्टेशन से कंट्रास्ट.

नॉर्मलाइज़ेशन

#fundamentals

मोटे तौर पर, चर की वास्तविक श्रेणी को मानों की मानक श्रेणी में बदलने की प्रक्रिया को इस तरह से किया जाता है, जैसे:

  • -1 से +1
  • 0 से 1 के बीच
  • सामान्य डिस्ट्रिब्यूशन

उदाहरण के लिए, मान लें कि किसी सुविधा के लिए मान की असल सीमा 800 से 2,400 है. सुविधा इंजीनियरिंग के हिस्से के तौर पर, असल वैल्यू को सामान्य रेंज के तौर पर दिखाया जा सकता है, जैसे कि -1 से +1 करना.

सुविधा इंजीनियरिंग में सामान्यीकरण एक आम काम है. आम तौर पर, मॉडल तेज़ी से ट्रेनिंग देते हैं और बेहतर अनुमान देते हैं. ऐसा तब होता है, जब feature वेक्टर में संख्या वाली हर सुविधा की रेंज एक जैसी होती है.

अंकों में डेटा

#fundamentals

सुविधाएं, जो पूर्णांक या असल वैल्यू वाली संख्याओं के तौर पर दिखाई जाती हैं. उदाहरण के लिए, घर का मूल्यांकन का मॉडल घर के आकार को (वर्ग फ़ीट या वर्ग मीटर) में अंक के रूप में दिखा सकता है. किसी सुविधा को संख्या वाले डेटा के तौर पर दिखाने से पता चलता है कि सुविधा की वैल्यू, लेबल से गणित के संबंध में हैं या नहीं. इसका मतलब है कि किसी घर के वर्ग मीटर की संख्या का, उस घर के मान से कुछ गणितीय संबंध हो सकता है.

सभी पूर्णांक डेटा को न्यूमेरिक डेटा के तौर पर नहीं दिखाया जाना चाहिए. उदाहरण के लिए, दुनिया के कुछ हिस्सों में पिन कोड पूर्णांक हैं. हालांकि, पूर्णांक पिन कोड को मॉडल में संख्या वाले डेटा के रूप में नहीं दिखाया जाना चाहिए. यह इसलिए है, क्योंकि 20000 का पिन कोड, 10,000 के पिन कोड के रूप में दो गुना (या आधा) नहीं है. इसके अलावा, अलग-अलग पिन कोड, अलग-अलग रीयल एस्टेट वैल्यू से जुड़े होते हैं. हालांकि, हम पिन कोड में मौजूद रीयल एस्टेट की वैल्यू, पिन कोड 10,000 की तुलना में दोगुनी रीयल एस्टेट वैल्यू नहीं बता सकते. इसके बजाय, पिन कोड को कैटगरी का डेटा के तौर पर दिखाया जाना चाहिए.

संख्या वाली सुविधाओं को कभी-कभी लगातार मिलने वाली सुविधाएं भी कहा जाता है.

O

अॉफ़लाइन

#fundamentals

static का समानार्थी शब्द.

ऑफ़लाइन अनुमान

#fundamentals

सुझावों के बैच को जनरेट करने और फिर उन अनुमानों को कैश मेमोरी में सेव करने की प्रोसेस. इसके बाद ऐप्लिकेशन, मॉडल को फिर से चलाने के बजाय कैश मेमोरी से मनचाहे सुझाव को ऐक्सेस कर सकते हैं.

उदाहरण के लिए, एक ऐसा मॉडल चुनें जो हर चार घंटे में एक बार स्थानीय मौसम के पूर्वानुमान (अनुमान) जनरेट करता हो. हर मॉडल के चलने पर, सिस्टम सभी स्थानीय मौसम के पूर्वानुमान कैश करता है. मौसम ऐप्लिकेशन कैश मेमोरी से पूर्वानुमान पाते हैं.

ऑफ़लाइन अनुमान को स्टैटिक अनुमान भी कहा जाता है.

ऑनलाइन अनुमान के उलट लिखें.

एक हॉट की एन्कोडिंग

#fundamentals

कैटगरी में मौजूद डेटा को वेक्टर के तौर पर दिखाना, जिसमें:

  • एक एलिमेंट, 1 पर सेट है.
  • अन्य सभी एलिमेंट 0 पर सेट होते हैं.

एक-हॉट एन्कोडिंग का इस्तेमाल आम तौर पर ऐसी स्ट्रिंग या आइडेंटिफ़ायर को दिखाने के लिए किया जाता है जिनमें संभावित वैल्यू का अंत तय होता है. उदाहरण के लिए, मान लें कि Scandinavia नाम की किसी खास कैटगरी वाली सुविधा के पांच संभावित मान हो सकते हैं:

  • "डेनमार्क"
  • "स्वीडन की"
  • "नॉर्वे"
  • "फ़िनलैंड"
  • "आइसलैंड"

एक-हॉट एन्कोडिंग, पांच वैल्यू में से हर एक को इस तरह दिखा सकती है:

country वेक्टर
"डेनमार्क" 1 0 0 0 0
"स्वीडन की" 0 1 0 0 0
"नॉर्वे" 0 0 1 0 0
"फ़िनलैंड" 0 0 0 1 0
"आइसलैंड" 0 0 0 0 1

एक हॉट हॉट एन्कोडिंग की वजह से, एक मॉडल पांच देशों में से हर एक के आधार पर अलग-अलग कनेक्शन सीख सकता है.

किसी सुविधा को अंक से जुड़े डेटा के तौर पर दिखाना, एक करके गर्म करने के कोड में बदलने का विकल्प है. इस बात का अफ़सोस है कि स्कैंडिनेवियाई देशों को संख्या के तौर पर दिखाना सही नहीं है. उदाहरण के लिए, इन्हें संख्या में दिखाने के बारे में सोचें:

  • "डेनमार्क" शून्य है
  • "स्वीडन" एक है
  • "नॉर्वे" 2 है
  • "फ़िनलैंड" तीन है
  • "आइसलैंड" चार है

संख्या वाली एन्कोडिंग में, मॉडल रॉ नंबर को गणित के हिसाब से समझेगा और उन नंबर पर ट्रेनिंग देने की कोशिश करेगा. हालांकि, आइसलैंड असल में नॉर्वे की तुलना में दोगुना (या आधा) है, इसलिए यह मॉडल कुछ अजीब नतीजों पर खरा उतरेगा.

एक बनाम बनाम सभी

#fundamentals

N क्लास की कैटगरी में आने वाली समस्या को देखते हुए, एक सलूशन जिसमें हर अलग-अलग नतीजे के लिए {0}बाइनरी क्लासिफ़ायर—एक बाइनरी क्लासिफ़ायर शामिल है. उदाहरण के लिए, दिए गए उदाहरण में जानवरों, सब्ज़ियों, या खनिज के वर्गीकरण की गई है. एक-एक बनाम सभी समाधान दो अलग-अलग बाइनरी क्लासिफ़ायर बताए गए हैं:

  • जानवर बनाम जानवर नहीं
  • सब्ज़ियां बनाम सब्ज़ियां
  • खनिज बनाम खनिज

online

#fundamentals

डाइनैमिक का समानार्थी शब्द.

ऑनलाइन अनुमान

#fundamentals

मांग पर अनुमान जनरेट करना. उदाहरण के लिए, कोई ऐप्लिकेशन मॉडल से इनपुट पास करता है और अनुमान के लिए अनुरोध करता है. ऑनलाइन अनुमान का इस्तेमाल करने वाला सिस्टम, मॉडल को चलाने के अनुरोध का जवाब देता है और ऐप्लिकेशन को अनुमान दिखाता है.

ऑफ़लाइन अनुमान वाला कंट्रास्ट.

आउटपुट लेयर

#fundamentals

न्यूरल नेटवर्क की "फ़ाइनल" लेयर. आउटपुट लेयर में अनुमान होता है.

नीचे दिए गए उदाहरण में इनपुट लेयर के साथ एक छोटा डीप नेटवर्क दिखाया गया है, दो छिपी हुई लेयर और एक आउटपुट लेयर दिखाया गया है:

एक इनपुट नेटवर्क, जिसमें एक इनपुट लेयर, दो छिपी हुई लेयर, और एक
          आउटपुट लेयर होती है. इनपुट लेयर में दो सुविधाएं होती हैं. पहली छिपी हुई लेयर में तीन न्यूरॉन हैं और दूसरी छिपी हुई लेयर में दो न्यूरॉन हैं. आउटपुट लेयर में एक नोड होता है.

ओवरफ़िटिंग

#fundamentals

मॉडल बनाना, जो ट्रेनिंग डेटा से मेल खाता हो. इससे, मॉडल नए डेटा का सही अनुमान नहीं लगा पाता.

रेगुलराइज़ेशन ओवरफ़िटिंग को कम कर सकता है. एक बहुत बड़े और अलग-अलग तरह के ट्रेनिंग सेट पर ट्रेनिंग देने से, ओवरफ़िटिंग कम हो सकती है.

P

पांडा

#fundamentals

numpy के ऊपर बना कॉलम-आधारित डेटा विश्लेषण एपीआई. कई मशीन लर्निंग फ़्रेमवर्क, जिनमें TensorFlow भी शामिल है, इनपुट के तौर पर पांडा डेटा स्ट्रक्चर के साथ काम करते हैं. ज़्यादा जानकारी के लिए, पांडा से जुड़े दस्तावेज़ देखें.

पैरामीटर

#fundamentals

ट्रेनिंग के दौरान किसी मॉडल को सीखने वाले वज़न और बायस. उदाहरण के लिए, एक लीनियर रिग्रेशन मॉडल में, पैरामीटर में मापदंड से बाहर की वैल्यू (b) और सभी महत्व (w1, w2 वगैरह शामिल हैं)

$$y' = b + w_1x_1 + w_2x_2 + … w_nx_n$$

इसके उलट, हाइपरपैरामीटर वे वैल्यू हैं जो आप या हाइपरपैरामीटर बदलने वाली सेवा के मॉडल को उपलब्ध कराती हैं. उदाहरण के लिए, लर्निंग रेट एक हाइपरपैरामीटर है.

पॉज़िटिव क्लास

#fundamentals

वह क्लास जिसके लिए टेस्ट किया जा रहा है.

उदाहरण के लिए, कैंसर के मॉडल में पॉज़िटिव क्लास "ट्यूमर" हो सकती है. ईमेल क्लासिफ़ायर में पॉज़िटिव क्लास "स्पैम" हो सकती है.

नेगेटिव क्लास के उलट लिखें.

प्रोसेसिंग के बाद

#fairness
#fundamentals

मॉडल चलने के बाद, मॉडल के आउटपुट में बदलाव करना. बाद में प्रोसेस करने की सुविधा का इस्तेमाल करके, फ़ेयरनेस कंस्ट्रेंट को लागू किया जा सकता है. इसके लिए, मॉडल में बदलाव करने की ज़रूरत नहीं होती.

उदाहरण के लिए, कोई क्लासिफ़िकेशन थ्रेशोल्ड सेट करके, बाइनरी क्लासिफ़ायर में पोस्ट-प्रोसेसिंग लागू की जा सकती है. इससे कुछ एट्रिब्यूट के लिए यह जांच की जा सकती है कि सही पॉज़िटिव रेट, उस एट्रिब्यूट की सभी वैल्यू के लिए एक जैसा ही रहता है. इसलिए, ऑपर्च्यूनिटी ऑफ़ ऑपर्च्यूनिटी का रखरखाव किया जाता है.

अनुमान

#fundamentals

मॉडल का आउटपुट. उदाहरण के लिए:

  • बाइनरी क्लासिफ़िकेशन मॉडल का अनुमान, पॉज़िटिव क्लास या नेगेटिव क्लास है.
  • मल्टी-क्लास क्लासिफ़िकेशन मॉडल का अनुमान एक क्लास है.
  • लीनियर रिग्रेशन मॉडल का अनुमान एक संख्या है.

प्रॉक्सी लेबल

#fundamentals

डेटासेट में मौजूद उन लेबल का अनुमान लगाने के लिए इस्तेमाल किया जाने वाला डेटा जो सीधे तौर पर उपलब्ध नहीं होते.

उदाहरण के लिए, मान लीजिए कि आपको कर्मचारियों के तनाव के लेवल का अनुमान लगाने के लिए किसी मॉडल को ट्रेनिंग देनी है. आपके डेटासेट में बहुत सारी अनुमानित सुविधाएं हैं, लेकिन इसमें स्ट्रेस लेवल नाम का कोई लेबल नहीं है. बिना किसी चिंता के आप तनाव की स्थिति में, "वर्कप्लेस दुर्घटना" को प्रॉक्सी लेबल के तौर पर चुनते हैं. आखिरकार, जिन कर्मचारियों को काफ़ी परेशानी होती है वे शांत कर्मचारियों की तुलना में या वे? हो सकता है कि काम से जुड़ी दुर्घटनाएं, असल में कई वजहों से बढ़ती और गिरती हों.

दूसरे उदाहरण के तौर पर, मान लीजिए कि आप अपने डेटासेट के लिए क्या बारिश हो रही है? को बूलियन लेबल बनाना है, लेकिन आपके डेटासेट में बारिश का डेटा नहीं है. अगर फ़ोटोग्राफ़ उपलब्ध हैं, तो आपके पास उन लोगों की तस्वीरें लग सकती हैं, जो छतरियों को "क्या बारिश हो रही है? के लिए, प्रॉक्सी लेबल के तौर पर ले जा रहे हैं. क्या यह एक अच्छा प्रॉक्सी लेबल है? ऐसा हो सकता है कि बारिश होने पर धूप से बचने के लिए, कुछ संस्कृतियों के लोगों में छाते ले जाने की संभावना ज़्यादा हो.

प्रॉक्सी लेबल अक्सर सटीक नहीं होते. जब भी हो सके, प्रॉक्सी लेबल के बजाय असल लेबल चुनें. हालांकि, जब कोई असल लेबल मौजूद नहीं होता है, तो प्रॉक्सी लेबल को बहुत ध्यान से चुनें. साथ ही, सबसे कम काम का प्रॉक्सी लेबल उम्मीदवार चुनें.

आर

रेटिंग देने वाले लोग

#fundamentals

वह क्रिएटर जो उदाहरणों के लिए, लेबल उपलब्ध कराता है. "ऐनेटर", रेटिंग देने वाले व्यक्ति का एक और नाम है.

सुधारी गई लीनियर यूनिट (RELU)

#fundamentals

नीचे दिए गए तरीके से ऐक्टिवेशन फ़ंक्शन:

  • अगर इनपुट नेगेटिव या शून्य है, तो आउटपुट शून्य है.
  • अगर इनपुट पॉज़िटिव है, तो आउटपुट इनपुट के बराबर है.

उदाहरण के लिए:

  • अगर इनपुट -3 है, तो आउटपुट 0 होगा.
  • अगर इनपुट +3 है, तो आउटपुट 3.0 है.

यहां ReLU का एक प्लॉट दिया गया है:

दो पंक्तियों वाला कार्टेशियन प्लॉट. पहली लाइन का स्थायी y मान 0 है, जो x-ऐक्सिस के बगल में -infinity, 0 से 0 तक चलता है.
          दूसरी लाइन 0,0 से शुरू होती है. इस लाइन में +1 का स्लोप है, इसलिए यह 0,0 से +Infinity,+Infinity तक चलता है.

ReLU एक बहुत लोकप्रिय ऐक्टिवेशन फ़ंक्शन है. हालांकि, इसके आसान तरीके के बावजूद, ReLU न्यूरल नेटवर्क को सुविधाओं और लेबल के बीच के संबंध को जानने का मौका देता है.

रिग्रेशन मॉडल

#fundamentals

अनौपचारिक तौर पर, ऐसा मॉडल जिससे संख्या का अनुमान जनरेट होता है. (इसके उलट, क्लासिफ़िकेशन मॉडल से क्लास का अनुमान जनरेट होता है.) उदाहरण के लिए, यहां दिए गए सभी रिग्रेशन मॉडल:

  • किसी घर की वैल्यू का अनुमान लगाने वाला मॉडल, जैसे कि 4,23,000 यूरो.
  • एक मॉडल जो किसी पेड़ की उम्र के बारे में अनुमान लगाता है, जैसे कि 23.2 साल.
  • ऐसा मॉडल जो अगले छह घंटों में, किसी खास शहर में बारिश होने का अनुमान लगाता है, जैसे कि 0.18 इंच.

रिग्रेशन के दो सामान्य टाइप हैं:

  • लीनियर रिग्रेशन: इस एट्रिब्यूट से ऐसी लाइन मिलती है जो लेबल की वैल्यू को सुविधाओं के लिए सबसे सही तरीके से सेट करती है.
  • लॉजिस्टिक रिग्रेशन, जो 0.0 और 1.0 के बीच की संभावना जनरेट करता है, जिसे आम तौर पर सिस्टम, क्लास के अनुमान के लिए मैप करता है.

संख्या वाला अनुमान बताने वाला हर मॉडल रिग्रेशन मॉडल नहीं होता. कुछ मामलों में, न्यूमेरिक अनुमान लगाने की सुविधा असल में क्लासिफ़िकेशन मॉडल होती है. इसमें, कक्षा के नाम को अंकों में रखा जाता है. उदाहरण के लिए, न्यूमेरिक पिन कोड का अनुमान लगाने वाला मॉडल, रिग्रेशन मॉडल होता है न कि रिग्रेशन मॉडल.

रेगुलराइज़ेशन

#fundamentals

ऐसा कोई भी तरीका जो बहुत ज़्यादा कम हो. नियमित बनाने के लोकप्रिय टाइप में ये शामिल हैं:

नियमित करने को मॉडल की जटिलता पर जुर्माने के रूप में भी परिभाषित किया जा सकता है.

नियमित करने की दर

#fundamentals

ऐसी संख्या जो ट्रेनिंग के दौरान नियमितता की अहमियत बताती है. रेगुलराइज़ेशन की दर बढ़ाने से ओवरफ़िटिंग कम हो जाती है, लेकिन मॉडल की अनुमानित पावर कम हो सकती है. इसके उलट, नियमित होने की दर को कम या ज़्यादा करने से ओवरफ़िटिंग बढ़ जाती है.

आरएलयू

#fundamentals

आयताकार लीनियर यूनिट के लिए छोटा नाम.

वापस पाने में मदद करने वाली जनरेशन

#fundamentals

ऐसा सॉफ़्टवेयर आर्किटेक्चर जिसका इस्तेमाल आम तौर पर, बड़े भाषा मॉडल (एलएलएम) ऐप्लिकेशन में किया जाता है. दोबारा हासिल करने के लिए, आम तौर पर इन प्रेरणाओं का इस्तेमाल किया जाता है:

  • मॉडल से जनरेट होने वाले जवाबों के तथ्यों को ज़्यादा सटीक बनाना
  • मॉडल को उस जानकारी का ऐक्सेस देना जिस पर उन्हें ट्रेनिंग नहीं दी गई थी
  • मॉडल के इस्तेमाल की जानकारी को बदलना
  • मॉडल को, सोर्स का हवाला देने के लिए चालू किया जा रहा है

उदाहरण के लिए, मान लें कि कोई केमिस्ट्री ऐप्लिकेशन उपयोगकर्ता की क्वेरी से जुड़ी खास जानकारी जनरेट करने के लिए PaLM API का इस्तेमाल करता है. जब ऐप्लिकेशन के बैकएंड को कोई क्वेरी मिलती है, तो बैकएंड पहले, उपयोगकर्ता की क्वेरी से जुड़े डेटा ("रिट्रीव" डेटा) को खोजता है. यह उपयोगकर्ता की क्वेरी में सही केमिस्ट्री डेटा ("जोड़ें") जोड़ता है. साथ ही, एलडीएम को जोड़े गए डेटा के आधार पर खास जानकारी बनाने का निर्देश देता है.

आरओसी (रिसीवर ऑपरेटिंग एट्रिब्यूट) कर्व

#fundamentals

बाइनरी क्लासिफ़िकेशन में अलग-अलग क्लासिफ़िकेशन थ्रेशोल्ड के लिए, सही पॉज़िटिव रेट बनाम गलत पॉज़िटिव रेट का ग्राफ़.

आरओसी कर्व का आकार, बाइनरी क्लासिफ़िकेशन मॉडल की क्षमता को पॉज़िटिव क्लास से अलग करने के लिए बताता है. उदाहरण के लिए, मान लीजिए कि एक बाइनरी क्लासिफ़िकेशन मॉडल, सभी नेगेटिव क्लास को सभी पॉज़िटिव क्लास से पूरी तरह अलग करता है:

ऐसी संख्या वाली लाइन जिसमें दाईं तरफ़ आठ पॉज़िटिव उदाहरण हों और
          बाईं ओर सात नेगेटिव उदाहरण मौजूद हों.

पिछले मॉडल का आरओसी कर्व ऐसा दिखता है:

आरओसी कर्व. x-ऐक्सिस, फ़ॉल्स पॉज़िटिव रेट और y-ऐक्सिस ट्रू पॉज़िटिव रेट है. कर्व की शेप उलटी हुई होती है. कर्व (0.0,0.0) से शुरू होता है और सीधे (0.0,1.0) तक जाता है. फिर कर्व (0.0,1.0) से (1.0,1.0) तक बदल जाता है.

इसके उलट, इस उदाहरण में एक खराब मॉडल के लिए, रॉ लॉजिस्टिक रिग्रेशन के आंकड़ों को दिखाया गया है. यह मॉडल, नेगेटिव क्लास को पॉज़िटिव क्लास से बिल्कुल अलग नहीं कर सकता.

पॉज़िटिव उदाहरणों और नेगेटिव क्लास वाली एक नंबर लाइन को पूरी तरह से इंटिग्रेट किया गया है.

इस मॉडल का आरओसी कर्व ऐसा दिखता है:

आरओसी कर्व, जो असल में (0.0,0.0) से (1.0,1.0) तक की सीधी रेखा है.

इस दौरान, असली दुनिया में ज़्यादातर बाइनरी क्लासिफ़िकेशन मॉडल, पॉज़िटिव और नेगेटिव क्लास को कुछ हद तक अलग करके दिखाते हैं. हालांकि, आम तौर पर ऐसा नहीं होता. इसलिए, एक सामान्य आरओसी कर्व इन दो चरम श्रेणियों के बीच आता है:

आरओसी कर्व. x-ऐक्सिस, फ़ॉल्स पॉज़िटिव रेट और y-ऐक्सिस ट्रू पॉज़िटिव रेट है. आरओसी कर्व एक अस्थिर चाप का अनुमान लगाता है, जो कंपास पॉइंट को पश्चिम से उत्तर तक ले जा रहा है.

आरओसी कर्व का पॉइंट (0.0,1.0) सबसे करीब होता है, लेकिन सैद्धांतिक तौर पर यह बताता है कि सबसे सही थ्रेशोल्ड क्या है. हालांकि, असल दुनिया की कई दूसरी समस्याओं का असर, कैटगरी तय करने के लिए सबसे सही थ्रेशोल्ड पर पड़ता है. उदाहरण के लिए, हो सकता है कि फ़ॉल्स पॉज़िटिव होने की वजह से, फ़ॉल्स पॉज़िटिव की तुलना में ज़्यादा दर्द हो.

AUC नाम की एक संख्या वाली मेट्रिक, आरओसी कर्व को एक फ़्लोटिंग-पॉइंट वैल्यू के तौर पर दिखाती है.

रूट मीन स्क्वेयर्ड गड़बड़ी (RMSE)

#fundamentals

मीन वर्ग की गड़बड़ी का वर्गमूल.

रवि

सिगमॉइड फ़ंक्शन

#fundamentals

यह गणित का एक फ़ंक्शन है, जो इनपुट वैल्यू को सीमित रेंज में "स्क्वेयर" करता है. आम तौर पर, यह 0 से 1 या -1 से 1 तक होती है. इसका मतलब है कि साइनबोर्ड में कोई भी संख्या, 20 लाख (शून्य, नेगेटिव) या किसी भी संख्या को पास किया जा सकता है. हालांकि, आउटपुट अब भी सीमित रेंज में ही होगा. सिग्मॉइड ऐक्टिवेशन फ़ंक्शन का प्लॉट ऐसा दिखता है:

दो डाइमेंशन वाला कर्व प्लॉट, जिसमें -इनफ़ाइनाइट डोमेन के x वैल्यू होते हैं, जबकि y की वैल्यू करीब 0 से लेकर करीब 1 तक होती हैं. जब x, 0 होता है, तो y का मतलब है 0.5. कर्व का स्लोप
          हमेशा पॉज़िटिव होता है. सबसे ज़्यादा 0, 0.5 ढलान वाली स्लोप होती है
          और स्लोप की कुल वैल्यू बढ़ने पर,स्लोप धीरे-धीरे कम होता जाता है.

सिग्मॉइड फ़ंक्शन का मशीन लर्निंग के कई इस्तेमाल होता है, जिसमें ये शामिल हैं:

सॉफ़्टमैक्स

#fundamentals

एक ऐसा फ़ंक्शन जो एक से ज़्यादा कैटगरी वाले मॉडल में हर संभावित क्लास की संभावना का पता लगाता है. प्रॉबेबिलिटी को ठीक से 1.0 पर सेट किया जाता है. उदाहरण के लिए, नीचे दी गई टेबल में बताया गया है कि सॉफ़्टमैक्स अलग-अलग संभावनाओं को कैसे डिस्ट्रिब्यूट करता है:

इमेज... प्रॉबेबिलिटी
कुत्ता .85
cat .13
घोड़ा .02

सॉफ़्टमैक्स को फ़ुल सॉफ़्टमैक्स भी कहा जाता है.

उम्मीदवार सैंपलिंग के साथ कंट्रास्ट.

स्पार्स सुविधा

#language
#fundamentals

ऐसी सुविधा जिसकी वैल्यू मुख्य रूप से शून्य या खाली है. उदाहरण के लिए, हो सकता है कि किसी एक वैल्यू और 00 लाख वैल्यू वाली सुविधा कम ही हो. इसके उलट, डेंस सुविधा में ऐसी वैल्यू होती हैं जो मुख्य रूप से शून्य या खाली नहीं होतीं.

मशीन लर्निंग में, बहुत कम सुविधाएं हैं. आम तौर पर, इसमें कम सुविधाएं होती हैं. उदाहरण के लिए, किसी जंगल में पेड़ों की 300 संभावित प्रजातियों में से, कोई एक सिर्फ़ मील के पेड़ की पहचान कर सकता है. या फिर किसी वीडियो लाइब्रेरी के लाखों संभावित वीडियो दिखाने से, बस "कासाब्लांका" की पहचान हो जाती है.

आम तौर पर, मॉडल में एक-हॉट एन्कोडिंग का इस्तेमाल किया जाता है. अगर एक-हॉट एन्कोडिंग बड़ा है, तो ज़्यादा क्षमता के लिए आप एक-हॉट एन्कोडिंग के ऊपर एम्बेड करने की लेयर डाल सकते हैं.

स्पार्स रिपोर्टिंग

#language
#fundamentals

बहुत कम सुविधाओं वाले नॉन-ज़ीरो एलिमेंट के सिर्फ़ पोज़िशन को स्टोर करना.

उदाहरण के लिए, मान लीजिए कि species नाम की किसी कैटगरी में मौजूद किसी खास जंगल में 36 पेड़ों की प्रजातियों की पहचान की जाती है. इसके अलावा, यह भी मान लें कि हर उदाहरण सिर्फ़ एक प्रजाति की पहचान करता है.

हर उदाहरण में, पेड़ों की प्रजातियों के बारे में जानकारी देने के लिए, एक हॉट वेक्टर का इस्तेमाल किया जा सकता है. एक हॉट वेक्टर में एक 1 (उस उदाहरण में पेड़ों की खास प्रजातियों को दिखाने के लिए) और 35 0 शामिल होंगे (33 पेड़ की उन प्रजातियों को दिखाने के लिए जो उस उदाहरण में नहीं हैं). इसलिए, maple की एक-हॉट प्रज़ेंटेशन कुछ ऐसी दिख सकती है:

0 से 23 तक की पोज़िशन, 0 से 0 होने पर, 24 की वैल्यू 0 से और 25 से 35 की वैल्यू 0 से बनी रहती है.

इसके अलावा, स्पार का इस्तेमाल करके खास प्रजातियों की स्थिति की ही पहचान की जा सकती है. अगर maple 24 की स्थिति में है, तो maple का सिर्फ़ यह पता चलेगा:

24

ध्यान दें कि एक ओट-हॉट प्रज़ेंटेशन की तुलना में, स्पार का रिलेशनशिप बहुत छोटा होता है.

स्पार्स वेक्टर

#fundamentals

वह वेक्टर जिसके मान ज़्यादातर शून्य होते हैं. यह भी देखें कि पार्स सुविधा और बहुत कम सुविधाएं.

वर्ग को नुकसान

#fundamentals

L2 हानि के लिए समानार्थी शब्द.

स्टैटिक

#fundamentals

लगातार होने के बजाय एक बार किया गया. स्टैटिक और ऑफ़लाइन समानार्थी शब्द होते हैं. मशीन लर्निंग में, स्टैटिक और ऑफ़लाइन के सामान्य इस्तेमाल के बारे में नीचे बताया गया है:

  • स्टैटिक मॉडल (या ऑफ़लाइन मॉडल) एक ऐसा मॉडल होता है जिसे एक बार ट्रेनिंग दी जाती है और कुछ समय के लिए इसका इस्तेमाल किया जाता है.
  • स्टैटिक ट्रेनिंग (या ऑफ़लाइन ट्रेनिंग) एक स्टैटिक मॉडल की ट्रेनिंग है.
  • स्टैटिक अनुमान (ऑफ़लाइन अनुमान) एक ऐसी प्रोसेस है जो मॉडल के एक समय में अनुमानों का बैच जनरेट करता है.

डाइनैमिक से उलटा करें.

स्टैटिक अनुमान

#fundamentals

ऑफ़लाइन अनुमान का समानार्थी शब्द.

कोई भी गतिविधि न होना

#fundamentals

वह सुविधा जिसके मान आम तौर पर एक या एक से ज़्यादा डाइमेंशन में नहीं बदलते हैं. उदाहरण के लिए, एक ऐसी सुविधा जिसकी वैल्यू 2021 और 2023 में एक जैसी दिखती हैं.

वहीं असल दुनिया में, बहुत कम सुविधाएं एक जैसी जगह पर मौजूद हैं. समय के साथ स्थिरता, जैसे कि समुद्र स्तर जैसी समानताएं भी बदल जाती हैं.

अस्थिरता के साथ कंट्रास्ट.

स्टोकैस्टिक ग्रेडिएंट डाउन (एसजीडी)

#fundamentals

ग्रेडिएंट वंश एल्गोरिदम, जिसमें बैच का साइज़ होता है. दूसरे शब्दों में, SGD एक सिंगल उदाहरण के तौर पर ट्रेन करता है, जिसे ट्रेनिंग सेट से रैंडम तौर पर चुना जाता है.

निगरानी में रखी गई मशीन लर्निंग

#fundamentals

सुविधाओं और उनसे जुड़े लेबल की मदद से मॉडल की ट्रेनिंग करना. निगरानी में रखी गई मशीन लर्निंग, किसी विषय के बारे में सीखने के लिए, काफ़ी हद तक सवालों के सेट और उनके जवाबों का अध्ययन करती है. सवालों और जवाबों की मैपिंग में महारत हासिल करने के बाद, छात्र/छात्रा एक ही विषय पर नए (पहले कभी नहीं देखे गए) सवालों के जवाब दे सकते हैं.

इसकी तुलना बिना निगरानी वाली मशीन लर्निंग से करें.

सिंथेटिक सुविधा

#fundamentals

इनपुट सुविधाओं में सुविधा मौजूद नहीं है, लेकिन इनमें से एक या ज़्यादा से इकट्ठा की गई है. सिंथेटिक सुविधाएं बनाने के तरीकों में ये चीज़ें शामिल हैं:

  • बकेट रखने की सुविधा, रेंज बिन में लगातार काम करती है.
  • फ़ीचर क्रॉस बनाएं.
  • एक सुविधा के मान को दूसरी सुविधा के मान से गुणा या विभाजित करना या खुद से. उदाहरण के लिए, अगर a और b इनपुट सुविधाएं हैं, तो सिंथेटिक सुविधाओं के उदाहरण यहां दिए गए हैं:
    • एबी
    • a2
  • किसी सुविधा की वैल्यू पर ट्रैंकेंडल फ़ंक्शन लागू करना. उदाहरण के लिए, अगर c एक इनपुट सुविधा है, तो सिंथेटिक सुविधाओं के उदाहरण यहां दिए गए हैं:
    • sin(c)
    • ln(c)

सामान्य सेटिंग या स्केलिंग से बनाई गई सुविधाएं सिंथेटिक सुविधाएं नहीं मानी जाती.

गुरु

टेस्ट में नुकसान

#fundamentals

मेट्रिक, मॉडल के नुकसान के बारे में बताती है, जो टेस्ट सेट में शामिल नहीं है. मॉडल बनाते समय, आम तौर पर टेस्ट के दौरान होने वाले नुकसान को कम करने की कोशिश की जाती है. ऐसा इसलिए होता है, क्योंकि टेस्ट में नुकसान का कम होना, ट्रेनिंग लॉस या पुष्टि की कमी से कम क्वालिटी का सिग्नल होता है.

टेस्ट में कमी और ट्रेनिंग के खोने या पुष्टि करने के बीच के अंतर की वजह से, कभी-कभी यह सुझाव दिया जाता है कि आप सामान्य बनाए जाने की दर बढ़ाएं.

ट्रेनिंग

#fundamentals

सबसे सही पैरामीटर (वज़न और मापदंड) तय करने की प्रोसेस, जिसमें मॉडल शामिल हो. ट्रेनिंग के दौरान, सिस्टम उदाहरण पढ़ता है और धीरे-धीरे पैरामीटर में बदलाव करता है. ट्रेनिंग में, हर उदाहरण का इस्तेमाल किया जाता है. इसका इस्तेमाल, कभी-कभी एक अरब से ज़्यादा बार किया जा सकता है.

ट्रेनिंग लॉस

#fundamentals

किसी खास ट्रेनिंग इटरेशन के दौरान मॉडल की लॉस दिखाने वाली मेट्रिक. उदाहरण के लिए, मान लें कि हानि फ़ंक्शन मध्यम वर्ग की गड़बड़ी है. शायद 10वीं प्रक्रिया के लिए ट्रेनिंग का नुकसान (यानी औसत वर्ग से जुड़ी गड़बड़ी) 2.2 है और 100वीं बार चलने की ट्रेनिंग में कमी 1.9 है.

लॉस कर्व में, ट्रेनिंग के खत्म होने की संख्या बनाम बार-बार दोहराए जाने की संख्या शामिल होती है. लूस कर्व ट्रेनिंग के बारे में ये संकेत देता है:

  • नीचे की ओर जाने वाला स्लोप, मॉडल को बेहतर बनाता है.
  • ऊपर की ओर ढलान का मतलब है कि मॉडल बदतर हो रहा है.
  • सपाट स्लोप का मतलब है कि मॉडल कन्वर्ज़न तक पहुंच गया है.

उदाहरण के लिए, यहां दिया गया तरीका लॉस कर्व दिखाता है:

  • शुरुआती बार-बार होने के दौरान ऊपर की ओर ढलान वाली ढलान, जिससे रैपिड मॉडल में सुधार होता है.
  • ट्रेनिंग खत्म होने के करीब पहुंचने तक, धीरे-धीरे झुकने और नीचे की ओर झुकने वाले स्लोप. इसका मतलब है कि शुरुआती इटरेशन के दौरान, मॉडल की रफ़्तार धीमी हो जाती है.
  • ट्रेनिंग के आखिर की ओर एक सपाट स्लोप, जिससे पता चलता है कि आपस में मिल-जुलकर काम किया जा सकता है.

ट्रेनिंग में होने वाले नुकसान बनाम बार-बार होने वाले टेस्ट का प्लॉट. लॉस कर्व की शुरुआत सीधी ढलान वाले ढलान से होती है. जब ढलान शून्य होती है,
     तब तक ढलान धीरे-धीरे सपाट होती जाती है.

हालांकि, ट्रेनिंग खत्म करना ज़रूरी है, लेकिन सामान्य बनाना भी देखें.

ट्रेनिंग और ब्राउज़र में वेब पेज खोलने के दौरान परफ़ॉर्मेंस में अंतर

#fundamentals

ट्रेनिंग के दौरान किसी मॉडल की परफ़ॉर्मेंस और सर्विंग के दौरान उसी मॉडल की परफ़ॉर्मेंस के बीच का अंतर.

ट्रेनिंग सेट

#fundamentals

डेटासेट का सबसेट, जिसका इस्तेमाल मॉडल को ट्रेनिंग देने के लिए किया गया था.

आम तौर पर, डेटासेट के उदाहरणों को नीचे दिए गए तीन अलग-अलग सबसेट में बांटा जाता है:

आम तौर पर, डेटासेट में मौजूद हर उदाहरण, पिछले सबसेट में से किसी एक से जुड़ा होना चाहिए. उदाहरण के लिए, एक उदाहरण, ट्रेनिंग सेट और पुष्टि सेट, दोनों से जुड़ा नहीं होना चाहिए.

ट्रू नेगेटिव (TN)

#fundamentals

इस उदाहरण में मॉडल से, नेगेटिव क्लास के बारे में सही तरीके से जानकारी मिलती है. उदाहरण के लिए, मॉडल अनुमान लगाता है कि कोई खास ईमेल मैसेज स्पैम नहीं है, लेकिन ईमेल ईमेल स्पैम नहीं है.

ट्रू पॉज़िटिव (TP)

#fundamentals

इस उदाहरण में मॉडल से, पॉज़िटिव क्लास का सही तरीके से अनुमान लगाया गया है. उदाहरण के लिए, मॉडल यह अनुमान लगाता है कि कोई खास ईमेल मैसेज स्पैम है और वह ईमेल मैसेज वाकई स्पैम है.

ट्रू पॉज़िटिव रेट (TPR)

#fundamentals

recall का समानार्थी शब्द. यानी:

$$\text{true positive rate} = \frac{\text{true positives}} {\text{true positives} + \text{false negatives}}$$

सही पॉज़िटिव रेट, आरओसी कर्व में y-ऐक्सिस होता है.

U

कम फ़िटिंग

#fundamentals

मॉडल को सटीक तरीके से नहीं दिखाना, क्योंकि मॉडल ने ट्रेनिंग डेटा की जटिलता को पूरी तरह से कैप्चर नहीं किया है. कई समस्याओं की वजह से ठीक से काम नहीं किया जा सकता, जैसे कि:

बिना किसी लेबल वाला उदाहरण

#fundamentals

एक उदाहरण जिसमें सुविधाएं शामिल हैं, लेकिन लेबल नहीं. उदाहरण के लिए, नीचे दी गई टेबल में, घर के इवैलुएशन मॉडल के बिना लेबल किए गए तीन उदाहरण दिखाए गए हैं. हर उदाहरण में तीन सुविधाएं हैं, लेकिन हाउस वैल्यू नहीं है:

कमरों की संख्या बाथरूम की संख्या घर की उम्र
3 2 15
2 1 72
4 2 34

निगरानी में रखे गए मशीन लर्निंग, मॉडल की मदद से, लेबल किए गए उदाहरणों के मुताबिक ट्रेनिंग ली जाती है और बिना लेबल वाले उदाहरणों का अनुमान लगाया जाता है.

सेमी-सुपरवाइज़्ड और बिना निगरानी वाले लर्निंग, बिना लेबल वाले उदाहरणों का इस्तेमाल ट्रेनिंग के दौरान किया जाता है.

लेबल किए गए उदाहरण का लेबल वाला विपरीत लेबल वाला उदाहरण.

बिना निगरानी वाली मशीन लर्निंग

#clustering
#fundamentals

किसी डेटासेट में पैटर्न ढूंढने के लिए मॉडल को ट्रेनिंग देना, जो आम तौर पर बिना लेबल वाला डेटासेट होता है.

बिना निगरानी वाली मशीन लर्निंग का सबसे आम इस्तेमाल, क्लस्टर डेटा को मिलते-जुलते उदाहरणों के ग्रुप में करना है. उदाहरण के लिए, बिना निगरानी वाली मशीन लर्निंग एल्गोरिदम, संगीत की अलग-अलग प्रॉपर्टी के आधार पर गानों को इकट्ठा कर सकती है. इन क्लस्टर की मदद से, मशीन लर्निंग के दूसरे एल्गोरिदम का इस्तेमाल किया जा सकता है. जैसे, संगीत के सुझाव देने वाली सेवा में. उपयोगी लेबल बहुत कम होने या उपलब्ध न होने पर, क्लस्टर बनाने में मदद मिल सकती है. उदाहरण के लिए, क्लस्टर में कई तरह के गलत इस्तेमाल और धोखाधड़ी जैसी चीज़ों से बने डेटा की मदद से, हम लोगों को डेटा को बेहतर तरीके से समझने में मदद कर सकते हैं.

निगरानी में रखे गए मशीन लर्निंग से उलट.

V

पुष्टि

#fundamentals

किसी मॉडल की क्वालिटी का शुरुआती मूल्यांकन. पुष्टि करने से, पुष्टि के लिए सेट के तहत, मॉडल के अनुमानों की क्वालिटी की जांच की जाती है.

पुष्टि करने का सेट, ट्रेनिंग सेट से अलग होता है. इसलिए, पुष्टि करने से ओवरफ़िट की सुरक्षा करने में मदद मिलती है.

मॉडल को टेस्ट करने के पहले चरण के तौर पर मूल्यांकन करने के तौर पर और टेस्टिंग के दूसरे चरण के तौर पर, टेस्ट सेट के आधार पर मॉडल का आकलन करने के बारे में सोचा जा सकता है.

पुष्टि में कमी

#fundamentals

ट्रेनिंग के किसी खास इटरेशन के दौरान, पुष्टि के सेट पर मॉडल की मेट्रिक दिखाने वाला मेट्रिक.

सामान्यीकरण कर्व भी देखें.

पुष्टि करने वाला सेट

#fundamentals

उस डेटासेट का सबसेट, जो प्रशिक्षित मॉडल की शुरुआती जांच करता है. आम तौर पर, मॉडल का आकलन टेस्ट सेट के हिसाब से करने से पहले, ट्रेनिंग वाले मॉडल का कई बार पुष्टि के लिए सेट किया जाता है.

आम तौर पर, डेटासेट में दिए गए उदाहरणों को इन तीन अलग-अलग सबसेट में बांटा जाता है:

आम तौर पर, डेटासेट में मौजूद हर उदाहरण, पिछले सबसेट में से किसी एक से जुड़ा होना चाहिए. उदाहरण के लिए, एक उदाहरण, ट्रेनिंग सेट और पुष्टि सेट, दोनों से जुड़ा नहीं होना चाहिए.

W

वज़न का डेटा

#fundamentals

ऐसी वैल्यू जो मॉडल किसी दूसरी वैल्यू से गुणा करती है. ट्रेनिंग, मॉडल का सही वज़न तय करने की प्रोसेस है. अनुमान, सीखे गए वेट का इस्तेमाल करके अनुमान लगाने की प्रोसेस है.

वेटेड योग

#fundamentals

सभी प्रासंगिक इनपुट के योग को उनके संबंधित भार से गुणा करने पर मिलने वाली वैल्यू. उदाहरण के लिए, मान लें कि काम के इनपुट में ये शामिल हैं:

इनपुट मान इनपुट वज़न
2 -1.3
-1 0.6
3 0.4

वेटेड कुल योग इसलिए है:

weighted sum = (2)(-1.3) + (-1)(0.6) + (3)(0.4) = -2.0

वेटेड योग, ऐक्टिवेशन फ़ंक्शन में इनपुट आर्ग्युमेंट होता है.

Z

Z-स्कोर नॉर्मलाइज़ेशन

#fundamentals

स्केलिंग तकनीक, रॉसुविधा की वैल्यू को फ़्लोटिंग-पॉइंट वैल्यू से बदल देती है. यह वैल्यू उस सुविधा के स्टैंडर्ड डिवीज़न की संख्या को दिखाती है. उदाहरण के लिए, ऐसी सुविधा के बारे में सोचें जिसका मतलब 800 है और जिसका स्टैंडर्ड डेविडेशन 100 है. नीचे दी गई टेबल से पता चलता है कि Z-स्कोर नॉर्मलाइज़ेशन, रॉ वैल्यू को अपने Z-स्कोर के लिए कैसे मैप करेगा:

असल वैल्यू Z-स्कोर
800 0
950 1.5 और
575 -2.25

फिर मशीन लर्निंग मॉडल, रॉ वैल्यू के बजाय उस सुविधा के लिए Z-स्कोर पर ट्रेनिंग लेता है.