रैंडम फ़ॉरेस्ट

यह एक बैल है.

बैल की पुरानी फ़ोटो.

इमेज 19. ऑक्स इस्तेमाल करें.

 

1906 में, इंग्लैंड में जज की प्रतियोगिता हुई. मीटिंग में शामिल 787 लोगों ने बैलों के वज़न का अनुमान लगाया. हर अनुमान का मीडियन गड़बड़ी 37 पाउंड (3.1%) की गड़बड़ी थी. हालांकि, अनुमान लगाने के लिए लगाए गए मीडिएशन का कुल मीडियन, सिर्फ़ 9 पाउंड (1198 पाउंड) से था, जो सिर्फ़ 0.7% की गड़बड़ी थी.

अलग-अलग अनुमानों का हिस्टोग्राम, जिसमें ज़्यादातर अनुमान बैल के असल वज़न के आस-पास लगे होते हैं.

इमेज 20. अलग-अलग वज़न के अनुमान का हिस्टोग्राम.

 

यह उपदेश भीड़ में रहने वाले लोगों की जानकारी के बारे में बताता है: कुछ मामलों में, सामूहिक राय के आधार पर फ़ैसला सही होता है.

गणित के ज्ञान को इस तरह से तय किया जा सकता है केंद्रीय सीमा सिद्धांत: बेहतर होगा कि इस मान की वैल्यू गड़बड़ी के तौर पर और एन N के शोर के अनुमान के बीच में 1/N फ़ैक्टर होती है. हालांकि, अगर वैरिएबल स्वतंत्र नहीं हैं, तो वैरिएबल ज़्यादा होता है.

मशीन लर्निंग में, एनसेंबल ऐसे मॉडल का संग्रह होता है जिनके अनुमानों का औसत (या किसी तरह से इकट्ठा) किया जाता है. अगर नतीजों में दिखने वाले मॉडल अलग-अलग होने से बहुत अलग हैं, तो आम तौर पर, इससे जुड़े हर मॉडल की क्वालिटी काफ़ी बेहतर होती है. किसी पहनावे के लिए एक मॉडल की तुलना में ज़्यादा ट्रेनिंग और अनुमान का समय लगता है. आखिरकार, आपको एक मॉडल के बजाय कई मॉडल पर ट्रेनिंग और अनुमान लगाना होगा.

अनौपचारिक रूप से, सबसे अच्छी तरह काम करने के कार्यक्रम के लिए, हर मॉडल को स्वतंत्र होना चाहिए. एक उदाहरण के तौर पर, बिल्कुल एक जैसे 10 मॉडल (जो कि स्वतंत्र नहीं हैं) से बना एक ग्रुप, हर मॉडल से बेहतर हो सकता है. वहीं दूसरी ओर, मॉडल को आत्मनिर्भर बनाने से उनका काम खराब हो सकता है. प्रभावी विश्लेषण के लिए, मॉडल की स्वतंत्रता और उसके उप-मॉडल की क्वालिटी के बीच संतुलन बनाने की ज़रूरत होती है.