Aşağıdaki seçenekleri keşfedin.
100 giriş özelliğine sahip doğrusal bir model düşünün:
10 tanesi son derece bilgilendirici.
90 bilgi amaçlı değil.
Tüm özelliklerin -1 ile 1 arasında değerlere sahip olduğunu varsayalım.
Aşağıdaki ifadelerden hangisi doğrudur?
L1 normalleştirmesi, bilgi içermeyen ağırlıkların çoğunun neredeyse 0,0 (ancak tam olarak değil) olmasını sağlar.
Genel olarak, yeterli lambda'nın L1 ile normalleştirilmesi, bilgilendirici olmayan özelliklerin tam olarak 0,0 ağırlıklarına teşvik edilme eğilimindedir.
L2 normalleştirmenin aksine, ağırlık 0,0'dan ne kadar uzakta olursa olsun L1 normalleştirmesi "pushs" kadar 0,0'a eşittir.
L1 normalleştirmesi, bilgilendirici olmayan ağırlıkların çoğunun tam olarak 0,0 olmasını sağlar.
Yeterli lambda'nın L1 ile normalleştirilmesi, bilgilendirici olmayan ağırlıkları tam olarak 0,0 olmaya teşvik eder. Bunu yaptığınızda, bilgilendirici olmayan bu özellikler modelden ayrılır.
L1 normalleştirmesi, bilgilendirici özelliklerin tam olarak 0,0 ağırlığı almasını sağlayabilir.
Dikkatli olun! L1 normalleştirmesi, aşağıdaki özellik türlerine tam olarak 0 ağırlık verilmesine neden olabilir:
Zayıf bilgilendirici özellikler.
Farklı ölçeklerde son derece bilgilendirici özellikler.
Bilgilendirici özellikler, diğer benzer bilgilendirici özelliklerle yakından ilişkilidir.