नीचे दिए गए विकल्पों को एक्सप्लोर करें.
अभी तक किसी भी व्यक्ति ने चेक इन नहीं किया है
एक ऐसे रैखिक मॉडल की कल्पना करें जिसमें दो सशक्त रूप से सहसंबंध सुविधाएं हैं; इसका मतलब है कि
ये दोनों सुविधाएं एक-दूसरे की काफ़ी मिलती-जुलती कॉपी हैं
इस सुविधा में थोड़ी-बहुत ग़ैर-ज़रूरी आवाज़ें नहीं होती हैं. अगर हम इसे ट्रेनिंग दें
मॉडल 2 रेगुलराइज़ेशन के साथ, वेट का क्या होगा
इन दो सुविधाओं के लिए?
दोनों सुविधाओं का वेट करीब-करीब बराबर होगा.
L2 रेगुलराइज़ेशन की सुविधा इस्तेमाल करने पर, सुविधाएं बेहतर हो जाएंगी
करीब-करीब इसके बराबर भार होते हैं, जो
ऐसा हो सकता है कि Google के पास
मॉडल में रहे हैं.
एक सुविधा का वज़न बहुत ज़्यादा होगा; दूसरे के पास
करीब 0.0 का वज़न होता है.
L2 रेगुलराइज़ेशन लागू करने से, वज़न पर ज़्यादा असर पड़ता है
कम वज़न की होती है. इसलिए, भले ही एक वज़न कम होने लगा हो
अन्य के मुकाबले, L2 रेगुलराइज़ेशन लागू करने पर
ज़्यादा तेज़ी से वज़न घटाने की क्षमता के साथ ज़्यादा तेज़ी से कम हो जाता है
कम वज़न की होती है.
एक सुविधा का वज़न बहुत ज़्यादा होगा; दूसरे के पास
वज़न बिलकुल 0.0 होना चाहिए.
L2 रेगुलराइज़ेशन कभी-कभार ही लागू होता है
वज़न ठीक 0.0 पर होना चाहिए. इसके उलट, L1 रेगुलराइज़ेशन
(बाद में इसके बारे में बताया गया है) 0.0 पर वेट लागू करता है.