Tetap teratur dengan koleksi
Simpan dan kategorikan konten berdasarkan preferensi Anda.
Menguji Regularisasi L1
Latihan ini berisi pelatihan kecil, sedikit berisik,
set data. Dalam situasi seperti ini, overfitting merupakan masalah yang nyata.
Regularisasi dapat membantu, tetapi dalam bentuk regularisasi yang mana?
Latihan ini terdiri dari lima tugas terkait. Untuk menyederhanakan perbandingan
di lima tugas, jalankan
setiap tugas di tab terpisah.
Perhatikan bahwa ketebalan garis yang menghubungkan FITUR dan OUTPUT
mewakili bobot relatif dari setiap fitur.
Tugas
Jenis Regularisasi
Rasio Regularisasi (lambda)
1
L2
0,1
2
L2
0,3
3
R1
0,1
4
R1
0,3
5
R1
eksperimen
Pertanyaan:
Cara beralih dari regularisasi L2 ke L1
memengaruhi delta antara kerugian pengujian dan kerugian pelatihan?
Cara beralih dari regularisasi L2 ke L1
mempengaruhi bobot yang dipelajari?
Bagaimana peningkatan tingkat regularisasi L1 (lambda)
bobot yang telah dipelajari?
(Jawaban muncul tepat di bawah latihan.)
Klik ikon plus untuk jawaban.
Beralih dari regularisasi L2 ke L1 secara drastis
mengurangi delta antara kerugian pengujian dan kerugian pelatihan.
Beralih dari peredam regularisasi L2 ke L1
semua bobot yang telah dipelajari.
Meningkatkan derajat regularisasi L1 umumnya akan mengurangi
bobot yang dipelajari; Namun, jika tingkat regularisasi terlalu tinggi,
model tidak bisa dikonvergensi
dan kerugiannya sangat tinggi.
[[["Mudah dipahami","easyToUnderstand","thumb-up"],["Memecahkan masalah saya","solvedMyProblem","thumb-up"],["Lainnya","otherUp","thumb-up"]],[["Informasi yang saya butuhkan tidak ada","missingTheInformationINeed","thumb-down"],["Terlalu rumit/langkahnya terlalu banyak","tooComplicatedTooManySteps","thumb-down"],["Sudah usang","outOfDate","thumb-down"],["Masalah terjemahan","translationIssue","thumb-down"],["Masalah kode / contoh","samplesCodeIssue","thumb-down"],["Lainnya","otherDown","thumb-down"]],["Terakhir diperbarui pada 2024-08-22 UTC."],[],[]]