ee.Reducer.ridgeRegression

यह एक ऐसा रिड्यूसर बनाता है जो numX इंडिपेंडेंट वैरिएबल (कॉन्स्टेंट को छोड़कर) के साथ रिज़ रिग्रेशन का हिसाब लगाता है. इसके बाद, numY डिपेंडेंट वैरिएबल का हिसाब लगाता है. रिज़ रिग्रेशन, टिखोनोव रेगुलराइज़ेशन का एक रूप है. यह रिग्रेशन कोएफ़िशिएंट को कम करता है. इसके लिए, यह उनके साइज़ पर जुर्माना लगाता है. रिज़ रिग्रेशन को लागू करने के इस तरीके में, पूर्वाग्रह के लिए कोई स्थिर वैल्यू शामिल करने की ज़रूरत नहीं होती.

पहला आउटपुट, डाइमेंशन (numX + 1, numY) वाली कोएफ़िशिएंट सरणी है. हर कॉलम में, संबंधित आश्रित वैरिएबल के कोएफ़िशिएंट होते हैं. साथ ही, आखिरी कॉलम में आश्रित वैरिएबल के लिए इंटरसेप्ट होता है. अतिरिक्त आउटपुट, हर डिपेंडेंट वैरिएबल के रेसिड्युअल के रूट मीन स्क्वेयर का वेक्टर और हर डिपेंडेंट वैरिएबल के लिए p-वैल्यू का वेक्टर होता है. अगर सिस्टम में ज़रूरत से कम इनपुट दिए गए हैं, तो आउटपुट शून्य होते हैं. उदाहरण के लिए, इनपुट की संख्या numX + 1 से कम है.

इस्तेमालरिटर्न
ee.Reducer.ridgeRegression(numX, numY, lambda)रेड्यूसर
आर्ग्यूमेंटटाइपविवरण
numXपूर्णांकरिग्रेशन किए जा रहे इंडिपेंडेंट वैरिएबल की संख्या.
numYपूर्णांक, डिफ़ॉल्ट: 1डिपेंडेंट वैरिएबल की संख्या.
lambdaफ़्लोट, डिफ़ॉल्ट: 0.1रेगुलराइज़ेशन पैरामीटर.