नीचे दिए गए विकल्पों को एक्सप्लोर करें.

अभी तक किसी भी व्यक्ति ने चेक इन नहीं किया है एक ऐसे रैखिक मॉडल की कल्पना करें जिसमें दो सशक्त रूप से सहसंबंध सुविधाएं हैं; इसका मतलब है कि ये दोनों सुविधाएं एक-दूसरे की काफ़ी मिलती-जुलती कॉपी हैं इस सुविधा में थोड़ी-बहुत ग़ैर-ज़रूरी आवाज़ें नहीं होती हैं. अगर हम इसे ट्रेनिंग दें मॉडल 2 रेगुलराइज़ेशन के साथ, वेट का क्या होगा इन दो सुविधाओं के लिए?
दोनों सुविधाओं का वेट करीब-करीब बराबर होगा.
L2 रेगुलराइज़ेशन की सुविधा इस्तेमाल करने पर, सुविधाएं बेहतर हो जाएंगी करीब-करीब इसके बराबर भार होते हैं, जो ऐसा हो सकता है कि Google के पास मॉडल में रहे हैं.
एक सुविधा का वज़न बहुत ज़्यादा होगा; दूसरे के पास करीब 0.0 का वज़न होता है.
L2 रेगुलराइज़ेशन लागू करने से, वज़न पर ज़्यादा असर पड़ता है कम वज़न की होती है. इसलिए, भले ही एक वज़न कम होने लगा हो अन्य के मुकाबले, L2 रेगुलराइज़ेशन लागू करने पर ज़्यादा तेज़ी से वज़न घटाने की क्षमता के साथ ज़्यादा तेज़ी से कम हो जाता है कम वज़न की होती है.
एक सुविधा का वज़न बहुत ज़्यादा होगा; दूसरे के पास वज़न बिलकुल 0.0 होना चाहिए.
L2 रेगुलराइज़ेशन कभी-कभार ही लागू होता है वज़न ठीक 0.0 पर होना चाहिए. इसके उलट, L1 रेगुलराइज़ेशन (बाद में इसके बारे में बताया गया है) 0.0 पर वेट लागू करता है.