Esplora le opzioni seguenti.

Immagina un modello lineare con 100 funzionalità di input:
  • 10 sono altamente istruttive.
  • 90 non sono informativi.
  • Supponiamo che tutti gli elementi abbiano un valore compreso tra -1 e 1. Quali delle seguenti affermazioni sono vere?
    La regolarizzazione L1 incoraggerà molti dei pesi non informativi a essere quasi (ma non esattamente) 0,0.
    In generale, la regolarizzazione L1 di una lambda sufficiente tende a incoraggiare le caratteristiche non informative con ponderazioni esattamente 0,0. A differenza della regolarizzazione L2, la "regolazione" L1 "pushs" o "dura" verso 0,0 non importa quanto il peso sia compreso tra 0,0.
    La regolarizzazione L1 incoraggerà la maggior parte dei pesi non informativi a essere esattamente 0,0.
    La regolarizzazione L1 di una lambda sufficiente tende a incoraggiare i pesi non informativi a diventare esattamente 0,0. In questo modo, queste funzionalità non informative lasciano il modello.
    La regolarizzazione L1 può far sì che le funzionalità informative abbiano una ponderazione pari esattamente a 0,0.
    Attenzione: la regolarizzazione L1 può causare l'assegnazione di ponderazioni esattamente pari a 0 ai seguenti tipi di funzionalità:
  • Funzionalità deboli e informative.
  • Funzionalità altamente istruttive su diverse scale.
  • Le funzionalità informative sono strettamente correlate ad altre informazioni analoghe.