כדאי לעיין באפשרויות הבאות.
דמיינו מודל לינארי עם 100 תכונות קלט:
10 מספקים אינפורמטיביות רבה.
90 מהם לא אינפורמטיביים.
נניח שלכל התכונות יש ערכים שבין 1- ל-1.
אילו מההצהרות הבאות נכונות?
תרחיש L1 יעודד רבים מהמשקלים שאינם אינפורמטיביים להיות כמעט (0 אבל לא מדויקים) 0.0.
באופן כללי, נורמליזציה של L1 לרוב של lambda נוטה
לעודד תכונות לא אינפורמטיביות למשקלים של 0.0 בדיוק.
בניגוד לתקן L2, גם תקני ה-L1 "pushes" בדיוק כמו
קשה עם הערך 0.0, לא משנה כמה המרחק מהמשקל הוא 0.0.
כוונון L1 יעודד את רוב המשקלים שאינם אינפורמטיביים
להיות בדיוק 0.0.
יישור L1 של lambda מספיק נוטה לעודד
משקלים לא אינפורמטיביים להפוך ל-0.0 בדיוק. אם תעשו את זה, הפיצ'רים שאינם אינפורמטיביים יעזבו את המודל.
תרחיש L1 עלול לגרום לתכונות אינפורמטיביות לקבל משקל
0.0 בדיוק.
חשוב להיזהר: סידור L1 עלול לגרום לסוגי התכונות הבאים לקבל משקל 0 בדיוק:
תכונות אינפורמטיביות.
תכונות אינפורמטיביות במיוחד בקנה מידה שונה.
לתכונות האינפורמטיביות יש קשר הדוק מאוד
לתכונות אינפורמטיביות דומות.