Sehen Sie sich die folgenden Optionen an.

Stellen Sie sich ein lineares Modell mit 100 Eingabefeatures vor:
  • 10 sind sehr informativ.
  • 90 sind nicht informativ.
  • Es wird davon ausgegangen, dass alle Features Werte zwischen -1 und 1 haben. Welche der folgenden Aussagen sind wahr?
    Bei der L1-Standardisierung werden viele der nicht informativen Werte nahezu (aber nicht genau) 0,0 angespornt.
    Im Allgemeinen neigt die L1-Regularisierung einer ausreichenden Lambda-Neigung tendenziell dazu, nicht informative Informationen mit einer Gewichtung von genau 0,0 zu fördern. Anders als bei der L2-Normalisierung wird die L1-Standardisierung „offen“ – ebenso stark auf 0,0 angewendet, unabhängig davon, wie weit die Gewichtung von 0,0 entfernt ist.
    Bei der L1-Normalisierung werden die meisten nicht informativen Gewichtungen auf 0,0 genau festgelegt.
    Die L1-Normalisierung einer ausreichenden Lambda-Neigung neigt dazu, dass nicht informative Werte genau 0,0 erreichen. Dadurch verlassen diese nicht informativen Merkmale das Modell.
    Die L1-Standardisierung kann dazu führen, dass informative Features eine Gewichtung von genau 0,0 erhalten.
    Seien Sie vorsichtig. L1-Standardisierung kann dazu führen, dass die folgenden Arten von Merkmalen exakt eine Gewichtung von 0 erhalten:
  • Schwach informative Informationen.
  • Informative Funktionen auf verschiedenen Größenstufen
  • Informative Merkmale stehen in engem Zusammenhang mit anderen ähnlich informativen Merkmalen.