Pelajari opsi-opsi di bawah.
Bayangkan model linear dengan 100 fitur input:
10 sangat informatif.
90 tidak informatif.
Asumsikan bahwa semua fitur memiliki nilai antara -1 dan 1.
Manakah dari pernyataan berikut yang benar?
Regularisasi L1 akan mendorong banyak bobot non-informatif mendekati (namun tidak persis) 0,0.
Secara umum, regulerisasi L1 pada lambda yang memadai cenderung
mendorong fitur yang tidak informatif menjadi berbobot benar-benar 0,0.
Tidak seperti regulerisasi L2, regulerisasi L1 "push" sama kerasnya
menuju 0,0 tidak peduli seberapa jauh beratnya dari 0,0.
Regularisasi L1 akan mendorong sebagian besar bobot non-informatif menjadi tepat 0,0.
Regularisasi L1 lambda yang memadai cenderung mendorong bobot yang tidak informatif menjadi benar-benar 0,0. Dengan demikian, fitur yang tidak informatif ini akan meninggalkan model.
Regularisasi L1 dapat menyebabkan fitur informatif mendapatkan bobot benar-benar 0,0.
Hati-hati--regularisasi L1 dapat menyebabkan fitur dengan jenis berikut diberi bobot benar-benar 0:
Fitur informatif lemah.
Fitur yang sangat informatif pada skala berbeda.
Fitur informatif yang sangat berkorelasi dengan fitur informatif serupa lainnya.