मशीन लर्निंग शब्दावली: फ़ैसले लेने के जंगल

इस पेज में डिसिज़न फ़ॉरेस्ट की शब्दावली से जुड़े शब्द हैं. शब्दावली के सभी शब्दों के लिए, यहां क्लिक करें.

जवाब

एट्रिब्यूट सैंपलिंग

#df

यह फ़ैसले लेने के बारे में जानकारी देने वाली रणनीति है. इसमें हर फ़ैसले की स्थिति के बारे में सीखते हुए, संभावित सुविधाओं के सिर्फ़ रैंडम सबसेट को ध्यान में रखा जाता है. आम तौर पर, हर नोड के लिए, सुविधाओं के अलग-अलग सबसेट का सैंपल लिया जाता है. इसके उलट, एट्रिब्यूट सैंपलिंग के बिना किसी डिसिज़न ट्री को ट्रेनिंग देते समय, हर नोड के लिए सभी संभावित सुविधाओं पर विचार किया जाता है.

ऐक्सिस-अलाइन्ड कंडीशन

#df

डिसिज़न ट्री में, एक शर्त जिसमें सिर्फ़ एक सुविधा शामिल होती है. उदाहरण के लिए, अगर एरिया कोई फ़ीचर है, तो यह ऐक्सिस पर मैच होने वाली कंडिशन है:

area > 200

तिरछी स्थिति के साथ कंट्रास्ट.

B

बैगिंग

#df

किसी डिवाइस के ग्रुप को ट्रेन करने का तरीका. इसमें हर कॉम्पोनेंट मॉडल को ट्रेनिंग के किसी भी सबसेट पर ट्रेनिंग दी जाती है. उदाहरण के लिए, रिप्लेसमेंट के साथ सैंपल. उदाहरण के लिए, रैंडम फ़ॉरेस्ट, डिसीज़न ट्री का कलेक्शन है, जिसे बैगिंग की मदद से ट्रेनिंग दी गई है.

बैगिंग शब्द, bबूटस्ट्रैप aggregateing का छोटा रूप है.

बाइनरी स्थिति

#df

डिसिज़न ट्री में, ऐसी स्थिति जिसके नतीजे सिर्फ़ दो संभावित होते हैं, आम तौर पर हां या नहीं. उदाहरण के लिए, यह एक बाइनरी स्थिति है:

temperature >= 100

अन्य स्थिति के साथ कंट्रास्ट.

C

शर्त

#df

डिसीज़न ट्री में, किसी एक्सप्रेशन का आकलन करने वाला कोई भी नोड होता है. उदाहरण के लिए, डिसिज़न ट्री के नीचे दिए गए हिस्से में दो शर्तें होती हैं:

डिसिज़न ट्री में दो शर्तें होती हैं: (x > 0) और
          (y > 0).

किसी शर्त को स्प्लिट या टेस्ट भी कहा जाता है.

पत्ती के साथ कंट्रास्ट की स्थिति.

यह भी देखें:

D

डिसिज़न फ़ॉरेस्ट

#df

कई डिसिज़न ट्री से बनाया गया मॉडल. डिसिज़न फ़ॉरेस्ट, अपने डिसिज़न ट्री के अनुमानों को इकट्ठा करके अनुमान लगाता है. डिसिज़न फ़ॉरेस्ट के लोकप्रिय टाइप में रैंडम फ़ॉरेस्ट और ग्रेडिएंट बूस्ट्ड ट्री शामिल हैं.

डिसिज़न ट्री

#df

यह निगरानी में रखा गया लर्निंग मॉडल है. इसमें conditions और conditions को हैरारकी के हिसाब से व्यवस्थित किया गया है. उदाहरण के लिए, यहां डिसिज़न ट्री दिया गया है:

एक डिसिज़न ट्री जिसमें हैरारकी के हिसाब से चार शर्तें होती हैं.
          इस ट्री से पांच पत्तियां जाती हैं.

E

एन्ट्रॉपी

#df

इन्फ़ॉर्मेशन थियरी में, इस बात की जानकारी दी जाती है कि किसी प्रॉबबिलिटी का अनुमान कैसे लगाया जा सकता है. इसके अलावा, एंट्रॉपी को इस रूप में भी परिभाषित किया जाता है कि हर उदाहरण में कितनी जानकारी है. किसी डिस्ट्रिब्यूशन में सबसे ज़्यादा एंट्रॉपी होती है, जब किसी रैंडम वैरिएबल की सभी वैल्यू की संभावना बराबर होती है.

दो संभावित वैल्यू "0" और "1" वाले सेट की एंट्रॉपी (उदाहरण के लिए, बाइनरी क्लासिफ़िकेशन से जुड़ी समस्या वाले लेबल) का फ़ॉर्मूला इस तरह है:

  H = -p लॉग p - q लॉग q = -p लॉग p - (1-p) * लॉग (1-p)

कहां:

  • H एंट्रॉपी है.
  • p, "1" उदाहरणों का छोटा हिस्सा है.
  • q, "0" उदाहरणों का फ़्रैक्शन है. ध्यान दें कि q = (1 - p)
  • आम तौर पर, log, लॉग2 होता है. इस मामले में, एंट्रॉपी यूनिट थोड़ी-बहुत होती है.

उदाहरण के लिए, मान लें कि ये:

  • 100 उदाहरणों में "1" वैल्यू शामिल है
  • 300 उदाहरणों में "0" वैल्यू शामिल है

इसलिए, एंट्रॉपी मान होगा:

  • p = 0.25
  • q = 0.75
  • H = (-0.25)log2(0.25) - (0.75)लॉग2(0.75) = 0.81 बिट हर उदाहरण के लिए

एक ऐसा सेट जो पूरी तरह से संतुलित होता है (उदाहरण के लिए, 200 "0" और 200 "1" में) हर उदाहरण के लिए 1.0 बिट की एंट्रॉपी होगी. जैसे-जैसे सेट ज़्यादा असंतुलित होता जाता है, उसका एंट्रॉपी 0.0 की ओर बढ़ता जाता है.

डिसिज़न ट्री में, एंट्रॉपी टेबल की कैटगरी तय करने वाली ट्री के बढ़ने के दौरान, स्प्लिटर को चुनने में शर्तों की मदद करने के लिए, जानकारी हासिल करने में मदद करती है.

एंट्रॉपी की तुलना इनसे करें:

एंट्रॉपी को अक्सर शैनन एंट्रॉपी कहा जाता है.

F

सुविधाओं के महत्व

#df

वैरिएबल अहमियत के लिए समानार्थी शब्द.

G

जीनी इंप्युरिटी

#df

एंट्रॉपी से मिलती-जुलती मेट्रिक. स्प्लिटर डिसिज़न ट्री की कैटगरी तय करने के लिए, शर्तें तय करने के लिए, जिनी इंप्युरिटी या एंट्रॉपी से मिली वैल्यू का इस्तेमाल किया जाता है. जानकारी मिलने का फ़ायदा, एंट्रॉपी से मिलता है. जीनी इंप्युरिटी से मिली मेट्रिक के लिए ऐसा कोई शब्द नहीं है जिसे आम तौर पर स्वीकार किया जाता हो. हालांकि, बिना नाम वाली यह मेट्रिक, जानकारी पाने जितना ही ज़रूरी है.

जिनी की पवित्रता को गिनी इंडेक्स या सिर्फ़ गिनी भी कहा जाता है.

ग्रेडिएंट बूस्ट्ड (डिसिज़न) ट्री (जीबीटी)

#df

एक तरह का डिसिज़न फ़ॉरेस्ट, जिसमें:

ग्रेडिएंट बूस्टिंग

#df

एक ट्रेनिंग एल्गोरिदम, जिसमें कमज़ोर मॉडल को लगातार किसी मज़बूत मॉडल की क्वालिटी को बेहतर बनाने (नुकसान को कम करने) की ट्रेनिंग दी जाती है. उदाहरण के लिए, एक कमज़ोर मॉडल, लीनियर या छोटा डिसिज़न ट्री मॉडल हो सकता है. मज़बूत मॉडल, पहले प्रशिक्षित किए गए सभी कमज़ोर मॉडल का योग बन जाता है.

हर इटरेशन में, सबसे आसान ग्रेडिएंट बूस्टिंग में, एक कमज़ोर मॉडल को ट्रेनिंग दी जाती है, ताकि वह मज़बूत मॉडल के लॉस ग्रेडिएंट का अनुमान लगा सके. इसके बाद, ग्रेडिएंट डिसेंट की तरह, अनुमानित ग्रेडिएंट को घटाकर मज़बूत मॉडल का आउटपुट अपडेट किया जाता है.

$$F_{0} = 0$$ $$F_{i+1} = F_i - \xi f_i $$

कहां:

  • $F_{0}$ सबसे मज़बूत मॉडल है.
  • $F_{i+1}$ अगला मज़बूत मॉडल है.
  • फ़िलहाल, $F_{i}$ का बेहतर मॉडल है.
  • $\xi$, 0.0 से 1.0 के बीच की कोई वैल्यू होती है, जिसे शृंकेज कहते हैं. यह ग्रेडिएंट डिसेंंट के लर्निंग रेट से मिलती-जुलती है.
  • $f_{i}$ एक कमज़ोर मॉडल है, जिसे $F_{i}$ के नुकसान के ग्रेडिएंट का अनुमान लगाने के लिए ट्रेनिंग दी गई है.

ग्रेडिएंट बूस्टिंग के आधुनिक वैरिएशन में कंप्यूटेशन में नुकसान का दूसरा डेरिवेटिव (हेसियन) भी शामिल है.

आम तौर पर, ग्रेडिएंट बूस्टिंग में डिसिज़न ट्री का इस्तेमाल, कमज़ोर मॉडल के तौर पर किया जाता है. ग्रेडिएंट बूस्ट (डिसिज़न) ट्री देखें.

I

अनुमान का पाथ

#df

फ़ैसले ट्री में, अनुमान के दौरान, कोई खास उदाहरण रूट से अन्य शर्तों तक ले जाता है और इसके आखिर में पत्तियां होता है. उदाहरण के लिए, नीचे दिए गए डिसिज़न ट्री में, थिकर ऐरो एक उदाहरण के तौर पर अनुमान पाथ दिखाते हैं. इस पाथ में, नीचे दी गई सुविधा वैल्यू शामिल होती हैं:

  • x = 7
  • y = 12
  • z = -3

नीचे दिए गए उदाहरण में दिया गया अनुमान पाथ, पत्ती (Zeta) तक पहुंचने से पहले तीन शर्तों से होकर गुज़रता है.

चार शर्तें और पांच पत्तियां वाला डिसिज़न ट्री.
          मूल शर्त (x > 0) है. इसका जवाब हां है, इसलिए
          अनुमान पाथ, रूट से अगली शर्त (y > 0) तक जाता है.
          इसका जवाब हां है, इसलिए अनुमान का पाथ अगली शर्त (z > 0) पर जाता है. जवाब 'नहीं' है. इसलिए, अनुमान पाथ
          टर्मिनल नोड तक जाता है, जो लीफ़ (Zeta) है.

तीन मोटे ऐरो, अनुमान का पाथ दिखाते हैं.

जानकारी की बढ़ोतरी

#df

डिसिज़न फ़ॉरेस्ट में, किसी नोड के एंट्रॉपी और उसके चाइल्ड नोड के एंट्रॉपी के योग के बीच का अंतर (उदाहरण की संख्या के हिसाब से). नोड की एंट्रॉपी उस नोड के उदाहरणों की एंट्रॉपी होती है.

उदाहरण के लिए, इन एंट्रॉपी वैल्यू पर विचार करें:

  • पैरंट नोड की एंट्रॉपी = 0.6
  • 16 काम के उदाहरणों के साथ एक चाइल्ड नोड की एंट्रॉपी = 0.2
  • 24 काम के उदाहरणों के साथ दूसरे चाइल्ड नोड की एंट्रॉपी = 0.1

इसलिए, 40% उदाहरण एक चाइल्ड नोड में और 60% उदाहरण दूसरे चाइल्ड नोड में हैं. इसलिए:

  • चाइल्ड नोड का वेटेड एंट्रॉपी योग = (0.4 * 0.2) + (0.6 * 0.1) = 0.14

इसलिए, जानकारी का फ़ायदा यह है:

  • जानकारी हासिल करना = पैरंट नोड की एंट्रॉपी - चाइल्ड नोड का वेटेड एंट्रॉपी योग
  • जानकारी की बढ़त = 0.6 - 0.14 = 0.46

ज़्यादातर स्प्लिटर ऐसी शर्तें बनाते हैं जिनसे ज़्यादा से ज़्यादा जानकारी मिल सके.

इन-सेट स्थिति

#df

डिसिज़न ट्री में, एक स्थिति जो आइटम के किसी सेट में एक आइटम की मौजूदगी की जांच करती है. उदाहरण के लिए, नीचे दी गई शर्त, इन-सेट है:

  house-style in [tudor, colonial, cape]

अनुमान के दौरान, अगर हाउस-स्टाइल सुविधा की वैल्यू tudor या colonial या cape है, तो इस शर्त का आकलन हां के तौर पर होता है. अगर हाउस-स्टाइल सुविधा की वैल्यू कुछ और है (जैसे, ranch), तो इस शर्त का आकलन 'नहीं' के तौर पर होता है.

आम तौर पर, इन-सेट वाली स्थितियों में एक-हॉट कोड में बदली गई सुविधाओं की जांच करने वाली शर्तों की तुलना में, ज़्यादा बेहतर डिसिज़न ट्री मिलते हैं.

L

पत्ती

#df

फ़ैशन ट्री में मौजूद कोई भी एंडपॉइंट. स्थिति के उलट, पत्ती की कोई जांच नहीं होती. दरअसल, पत्ती का इस्तेमाल करने से अनुमान लगाया जा सकता है. पत्ती, किसी अनुमान पाथ का टर्मिनल नोड भी होती है.

उदाहरण के लिए, नीचे दिए गए डिसिज़न ट्री में तीन पत्तियां हैं:

तीन पत्तियों पर ले जाने वाली दो शर्तों वाला डिसिज़न ट्री.

N

नोड (डिसिज़न ट्री)

#df

डिसिज़न ट्री में, कोई भी स्थिति या पत्ती.

दो शर्तों और तीन पत्तियों वाला डिसिज़न ट्री.

नॉन-बाइनरी शर्त

#df

कोई स्थिति जिसमें दो से ज़्यादा संभावित नतीजे होते हैं. उदाहरण के लिए, नीचे दी गई नॉन-बाइनरी स्थिति में तीन संभावित नतीजे शामिल हैं:

एक स्थिति (number_of_legs = ?) जिससे तीन संभावित नतीजे
          मिलते हैं. एक नतीजा (number_of_legs = 8) स्पाइडर नाम के पत्ते पर ले जाता है. दूसरे नतीजे (number_of_legs = 4) से
          कुत्ते के नाम वाली पत्ती मिलती है. तीसरा नतीजा (number_of_legs = 2) होता है, जो
          पेंग्विन नाम के पत्ते पर ले जाता है.

O

तिरछी स्थिति

#df

डिसिज़न ट्री में, एक ऐसी स्थिति होती है जिसमें एक से ज़्यादा सुविधाएं शामिल होती हैं. उदाहरण के लिए, अगर ऊंचाई और चौड़ाई दोनों सुविधाएं हैं, तो नीचे दी गई शर्त तिरछी है:

  height > width

ऐक्सिस अलाइन की गई स्थिति से कंट्रास्ट अलग है.

आउट-ऑफ़-बैग इवैलुएशन (ओओबी इवैलुएशन)

#df

एक ऐसा सिस्टम जो फ़ैसले की ट्रेनिंग वाले हर फ़ैसले की जांच उस डिसिज़न ट्री के उदाहरण करते समय किया जाता है. उदाहरण के लिए, नीचे दिए गए डायग्राम में देखें कि सिस्टम, करीब दो-तिहाई उदाहरणों पर हर डिसिज़न ट्री को ट्रेनिंग देता है. इसके बाद, बचे हुए एक-तिहाई उदाहरणों के आधार पर आकलन करता है.

डिसिज़न फ़ॉरेस्ट, जिसमें तीन डिसिज़न ट्री होते हैं.
          एक डिसिज़न ट्री, दो-तिहाई उदाहरणों के आधार पर ट्रेनिंग लेता है और बाकी एक-तिहाई हिस्से को ओओबी के आकलन के लिए इस्तेमाल करता है.
          दूसरा डिसिज़न ट्री, पिछले डिसिज़न ट्री के मुकाबले अलग-अलग दो-तिहाई उदाहरणों पर ट्रेनिंग लेता है. इसके बाद,
 ओओबी के आकलन के लिए, पिछले डिसिज़न ट्री के मुकाबले अलग एक-तिहाई
 डेटा का इस्तेमाल करता है.

आउट-ऑफ़-बैग आकलन, क्रॉस-वैलिडेशन तकनीक का, कंप्यूटेशन के हिसाब से, बेहतर और आसान अनुमान है. क्रॉस-वैलिडेशन में, हर क्रॉस-वैलिडेशन के राउंड के लिए एक मॉडल को ट्रेनिंग दी जाती है (उदाहरण के लिए, 10 मॉडल को 10-फ़ोल्ड क्रॉस-वैलिडेशन में ट्रेनिंग दी जाती है). ओओबी का आकलन करने पर, एक ही मॉडल को ट्रेनिंग दी जाती है. बैगिंग, ट्रेनिंग के दौरान हर पेड़ का कुछ डेटा रोक देती है. इसलिए, ओओबी का आकलन इस डेटा का इस्तेमाल, क्रॉस-वैलिडेशन का अनुमान लगाने के लिए कर सकता है.

P

क्रमचय वैरिएबल की अहमियत

#df

यह एक तरह की वैरिएबल अहमियत का है. यह सुविधा की वैल्यू को अनुमति देने के बाद, किसी मॉडल के अनुमान में होने वाली गड़बड़ी में होने वाली बढ़ोतरी का आकलन करता है. क्रमचय वैरिएबल महत्व एक मॉडल ऐग्नोस्टिक मेट्रिक है.

R

रैंडम फ़ॉरेस्ट

#df

डिसिज़न ट्री का नकल, जिसमें हर डिसिज़न ट्री को किसी भी खास शोर के साथ ट्रेनिंग दी जाती है. जैसे, बैगिंग.

बेतरतीब जंगल, एक तरह का फ़ैसला लेने वाले जंगल हैं.

रूट

#df

डिसिज़न ट्री में शुरुआती नोड (पहली स्थिति). कन्वेंशन के मुताबिक, डायग्राम में रूट को डिसिज़न ट्री के सबसे ऊपर रखा जाता है. उदाहरण के लिए:

दो शर्तों और तीन पत्तियों वाला डिसिज़न ट्री. शुरुआती
          कंडिशन (x > 2) रूट है.

S

रिप्लेसमेंट की मदद से सैंपलिंग

#df

उम्मीदवार आइटम के सेट से आइटम चुनने का ऐसा तरीका जिसमें एक ही आइटम को कई बार चुना जा सकता है. वाक्यांश "बदलने के साथ" का मतलब है कि हर एक चुनाव के बाद, चुना गया आइटम वापस चुने गए आइटम के पूल में आ जाता है. रिप्लेसमेंट के बिना सैंपल का मतलब है कि किसी उम्मीदवार को सिर्फ़ एक बार चुना जा सकता है.

उदाहरण के लिए, नीचे दिए गए फलों का सेट देखें:

fruit = {kiwi, apple, pear, fig, cherry, lime, mango}

मान लें कि सिस्टम fig को पहले आइटम के तौर पर चुनता है. अगर बदलाव के साथ सैंपलिंग का इस्तेमाल किया जा रहा है, तो सिस्टम नीचे दिए गए सेट से दूसरा आइटम चुनता है:

fruit = {kiwi, apple, pear, fig, cherry, lime, mango}

हां, यह पहले की तरह ही सेट है, इसलिए सिस्टम fig को फिर से चुन सकता है.

अगर बिना बदलाव के सैंपलिंग का इस्तेमाल किया जा रहा है, तो एक बार चुने जाने के बाद, सैंपल को फिर से नहीं चुना जा सकता. उदाहरण के लिए, अगर सिस्टम fig को पहले सैंपल के तौर पर किसी भी क्रम में चुनता है, तो fig को फिर से नहीं चुना जा सकता. इसलिए, सिस्टम यहां दिए गए (कम किए गए) सेट में से दूसरा सैंपल चुनता है:

fruit = {kiwi, apple, pear, cherry, lime, mango}

श्रिंकेज

#df

ग्रेडिएंट बूस्टिंग में मौजूद हाइपर पैरामीटर, जो ओवरफ़िटिंग को कंट्रोल करता है. ग्रेडिएंट बूस्टिंग में श्रिंकेज, ग्रेडिएंट डिसेंट में लर्निंग रेट से मिलता-जुलता है. श्रिंकेज, 0.0 और 1.0 के बीच दशमलव मान होता है. शृंकेज वैल्यू कम होने पर, सिकुड़ने की ज़्यादा वैल्यू की तुलना में ओवरफ़िटिंग की वैल्यू कम हो जाती है.

बांटें

#df

डिसिज़न ट्री में, स्थिति का दूसरा नाम होता है.

स्प्लिटर

#df

डिसिज़न ट्री को ट्रेनिंग देने के दौरान, हर नोड के लिए सबसे बेहतर स्थिति खोजने का रूटीन और एल्गोरिदम ज़िम्मेदार होता है.

T

जांच

#df

डिसिज़न ट्री में, स्थिति का दूसरा नाम होता है.

थ्रेशोल्ड (फ़ैसले ट्री के लिए)

#df

ऐक्सिस अलाइन की गई शर्त में, उस वैल्यू की तुलना सुविधा से की जा रही है जिसकी तुलना की जा रही है. उदाहरण के लिए, 75 इस स्थिति में थ्रेशोल्ड मान है:

grade >= 75

V

वैरिएबल की अहमियत

#df

स्कोर का सेट, जो मॉडल के लिए हर सुविधा की अहमियत बताता है.

उदाहरण के लिए, एक डिसिज़न ट्री देखें, जो घर की कीमतों का अनुमान लगाता है. मान लें कि डिसिज़न ट्री तीन सुविधाओं का इस्तेमाल करता है: साइज़, उम्र, और स्टाइल. अगर तीनों सुविधाओं के लिए वैरिएबल की अहमियत के किसी सेट का आकलन {size=5.8, age=2.5, style=4.7} करने के लिए किया जाता है, तो उम्र या शैली की तुलना में फै़शन ट्री के लिए साइज़ ज़्यादा अहम होता है.

वैरिएबल की अहमियत वाली अलग-अलग मेट्रिक मौजूद हैं, जिनसे मशीन लर्निंग (एमएल) के विशेषज्ञों को मॉडल के अलग-अलग पहलुओं के बारे में जानकारी मिल सकती है.

W

भीड़ का ज्ञान

#df

लोगों के एक बड़े समूह ("भीड़") की राय या अनुमानों का औसत निकालने से अक्सर काफ़ी अच्छे नतीजे मिलते हैं. जैसे, कोई ऐसा गेम मानें जिसमें लोग एक बड़े जार में पैक किए गए जेली बीन की संख्या का अंदाज़ा लगाते हैं. हालांकि ज़्यादातर अलग-अलग अनुमान गलत होंगे, फिर भी सभी अनुमानों का औसत आकर्षक रूप से जार में मौजूद जैली बीन की असल संख्या के करीब-करीब सटीक दिखाया गया है.

एंसेंबल, भीड़ की समझ को सॉफ़्टवेयर की तरह इस्तेमाल करते हैं. भले ही अलग-अलग मॉडल बहुत ज़्यादा गलत अनुमान लगाते हैं, कई मॉडल के अनुमानों का औसत निकालने से अक्सर काफ़ी अच्छे अनुमान जनरेट होते हैं. उदाहरण के लिए, भले ही कोई व्यक्तिगत फ़ैसले ट्री अनुमान सटीक न लगा सकता हो, लेकिन फ़ैसले लेने वाला जंगल अक्सर काफ़ी अच्छे अनुमान लगाता है.