Koleksiyonlar ile düzeninizi koruyun
İçeriği tercihlerinize göre kaydedin ve kategorilere ayırın.
L2 normalleştirmesini inceleme
Bu alıştırmada küçük ve gürültülü bir eğitim veri kümesi bulunuyor.
Bu tür ortamlarda, fazla uyum sağlamak gerçekten sorun teşkil eder. Neyse ki
yardımcı olabilir.
Bu alıştırma ilgili üç görevden oluşur. Karşılaştırmaları kolaylaştırmak için
her görevi ayrı bir sekmede çalıştırabilirsiniz.
1. görev: Modeli en az 500 dönem için belirtildiği şekilde çalıştırın. Not
şu:
Kayıp testi.
Test kaybı ve Eğitim kaybı arasındaki delta.
Özelliklerin öğrenilen ağırlıkları ve kesişim.
(FEATURES ile OUTPUT arasındaki her çizginin göreli kalınlığı
o özelliğin ya da özellik çaprazın öğrenilen ağırlığını temsil eder.
Fareyle üzerine gelerek tam ağırlık değerlerini bulabilirsiniz.
ekleyin.)
2. Görev: (Bu Görevi ayrı bir sekmede yapmayı düşünebilirsiniz.) Artan
0 ile 0,3 arasında normalleştirme oranı. Ardından,
için en az 500 dönem için model oluşturun ve aşağıdaki soruların yanıtlarını bulun:
Görev 2'deki Test kaybının Görevdeki Test kaybından farkı nedir?
1'i tıklayın.
Görev 2'deki Test kaybı ve Eğitim kaybı arasındaki delta nasıl?
Görev 1’den farklı mı?
Her özelliğin ve özellik çaprazının öğrenilen ağırlıkları arasındaki farklar
görev 2’den Görev 1’e nasıl geçti?
Sonuçlarınız model karmaşıklığı hakkında ne söylüyor?
3. Görev: Normalleştirme oranıyla denemeler yaparak
optimum değerdir.
(Yanıtlar alıştırmanın hemen altında görünür.)
Yanıtlar için artı simgesini tıklayın.
Normalleştirme hızını 0'dan 0,3'e yükselttiğinizde şu sonucu elde edersiniz:
etkiler:
Test kaybı önemli ölçüde azalır.
Not: Test kaybı azalsa da eğitim kaybı aslında
artması. Başka bir ad eklediğiniz için bu, beklenen bir durumdur.
karmaşayı telafi etmek için kayıp işlevine bir terim eklemektir. Neticede, tüm bunlar
test kaybıdır. Bu, modelin bunu yapabilme yeteneğinin
yeni veriler hakkında
iyi tahminlerde bulunmaktır.
Test kaybı ile Eğitim kaybı arasındaki delta önemli ölçüde düşer.
Özelliklerin ağırlıkları ve bazı özellik çarpıları daha düşük
mutlak değerlere sahiptir. Bu da modelin karmaşıklığının düştüğünü gösterir.
Veri kümesindeki rastgelelik düşünüldüğünde,
sizin için en iyi sonuçları veren normalleştirme oranıdır.
Bize göre 0,3 veya 1'lik bir normalleştirme oranı, genelde
en düşük Test kaybıdır.
[[["Anlaması kolay","easyToUnderstand","thumb-up"],["Sorunumu çözdü","solvedMyProblem","thumb-up"],["Diğer","otherUp","thumb-up"]],[["İhtiyacım olan bilgiler yok","missingTheInformationINeed","thumb-down"],["Çok karmaşık / çok fazla adım var","tooComplicatedTooManySteps","thumb-down"],["Güncel değil","outOfDate","thumb-down"],["Çeviri sorunu","translationIssue","thumb-down"],["Örnek veya kod sorunu","samplesCodeIssue","thumb-down"],["Diğer","otherDown","thumb-down"]],["Son güncelleme tarihi: 2024-08-22 UTC."],[],[]]