Pelajari opsi-opsi di bawah.

Bayangkan model linear dengan 100 fitur input:
  • 10 sangat informatif.
  • 90 tidak informatif.
  • Asumsikan bahwa semua fitur memiliki nilai antara -1 dan 1. Manakah dari pernyataan berikut yang benar?
    Regularisasi L1 akan mendorong banyak bobot non-informatif mendekati (namun tidak persis) 0,0.
    Secara umum, regulerisasi L1 pada lambda yang memadai cenderung mendorong fitur yang tidak informatif menjadi berbobot benar-benar 0,0. Tidak seperti regulerisasi L2, regulerisasi L1 "push" sama kerasnya menuju 0,0 tidak peduli seberapa jauh beratnya dari 0,0.
    Regularisasi L1 akan mendorong sebagian besar bobot non-informatif menjadi tepat 0,0.
    Regularisasi L1 lambda yang memadai cenderung mendorong bobot yang tidak informatif menjadi benar-benar 0,0. Dengan demikian, fitur yang tidak informatif ini akan meninggalkan model.
    Regularisasi L1 dapat menyebabkan fitur informatif mendapatkan bobot benar-benar 0,0.
    Hati-hati--regularisasi L1 dapat menyebabkan fitur dengan jenis berikut diberi bobot benar-benar 0:
  • Fitur informatif lemah.
  • Fitur yang sangat informatif pada skala berbeda.
  • Fitur informatif yang sangat berkorelasi dengan fitur informatif serupa lainnya.