Sehen Sie sich die folgenden Optionen an.
Stellen Sie sich ein lineares Modell mit 100 Eingabefeatures vor:
10 sind sehr informativ.
90 sind nicht informativ.
Es wird davon ausgegangen, dass alle Features Werte zwischen -1 und 1 haben.
Welche der folgenden Aussagen sind wahr?
Bei der L1-Standardisierung werden viele der nicht informativen Werte nahezu (aber nicht genau) 0,0 angespornt.
Im Allgemeinen neigt die L1-Regularisierung einer ausreichenden Lambda-Neigung tendenziell dazu, nicht informative Informationen mit einer Gewichtung von genau 0,0 zu fördern.
Anders als bei der L2-Normalisierung wird die L1-Standardisierung „offen“ – ebenso stark auf 0,0 angewendet, unabhängig davon, wie weit die Gewichtung von 0,0 entfernt ist.
Bei der L1-Normalisierung werden die meisten nicht informativen Gewichtungen auf 0,0 genau festgelegt.
Die L1-Normalisierung einer ausreichenden Lambda-Neigung neigt dazu, dass nicht informative Werte genau 0,0 erreichen. Dadurch verlassen diese nicht informativen Merkmale das Modell.
Die L1-Standardisierung kann dazu führen, dass informative Features eine Gewichtung von genau 0,0 erhalten.
Seien Sie vorsichtig. L1-Standardisierung kann dazu führen, dass die folgenden Arten von Merkmalen exakt eine Gewichtung von 0 erhalten:
Schwach informative Informationen.
Informative Funktionen auf verschiedenen Größenstufen
Informative Merkmale stehen in engem Zusammenhang mit anderen ähnlich informativen Merkmalen.