Koleksiyonlar ile düzeninizi koruyun
İçeriği tercihlerinize göre kaydedin ve kategorilere ayırın.
Sinir Ağı Başlatma
Bu alıştırmada tekrar XOR verileri kullanılmaktadır ancak tekrarlanabilirlik açısından incelenmektedir
eğitimine ve ilk kullanıma hazırlamanın önemine değineceğiz.
1. Görev: Modeli dört veya beş kez verilen şekilde çalıştırın. Her denemeden önce
yeni bir rastgele başlatma işlemi almak için Ağı sıfırla düğmesine basın.
(Ağı sıfırla düğmesi, ekranın sağ alt köşesindeki yuvarlak sıfırlama okudur.
sol tarafındaki düğmeyi tıklayın.) Her denemenin en az 500 adım boyunca çalıştırılmasını sağlayın
sağlamak için
kullanılan bir araçtır. Her bir model çıktısı hangi şekille örtüşüyor?
Bu ifade, dışbükey olmayan reklamlarda ilk kullanıma hazırlamanın rolü hakkında ne söylüyor?
nelerdir?
2. görev: Katman ekleyerek modeli biraz daha karmaşık hale getirmeyi deneyin
ve birkaç ek düğüm var. 1. görevdeki denemeleri tekrarlayın. Bu işlem
sonuçlar daha istikrarlı hale geliyor mu?
(Yanıtlar alıştırmanın hemen altında görünür.)
1. Görev'in yanıtı için artı simgesini tıklayın.
Öğrenilen modelin her çalıştırmada farklı şekilleri vardı. Tümleşik
en düşükten en yükseğe doğru neredeyse 2 kat arttı.
2. Görev'in yanıtı için artı simgesini tıklayın.
Katmanın ve ilave düğümlerin eklenmesi, daha fazla tekrarlanabilir sonuçlar üretti.
Her çalıştırmada ortaya çıkan model hemen hemen aynı görünüyordu. Ayrıca,
yakınsak test kaybı, çalıştırmalar arasında daha az varyans gösterdi.
[[["Anlaması kolay","easyToUnderstand","thumb-up"],["Sorunumu çözdü","solvedMyProblem","thumb-up"],["Diğer","otherUp","thumb-up"]],[["İhtiyacım olan bilgiler yok","missingTheInformationINeed","thumb-down"],["Çok karmaşık / çok fazla adım var","tooComplicatedTooManySteps","thumb-down"],["Güncel değil","outOfDate","thumb-down"],["Çeviri sorunu","translationIssue","thumb-down"],["Örnek veya kod sorunu","samplesCodeIssue","thumb-down"],["Diğer","otherDown","thumb-down"]],["Son güncelleme tarihi: 2024-08-22 UTC."],[[["Neural networks with the same architecture and data can converge to different solutions due to random initialization, highlighting its role in non-convex optimization."],["Increasing the complexity of a neural network by adding layers and nodes can improve the stability and repeatability of training results, leading to more consistent model performance."],["Initialization significantly impacts the final model and the variance in test loss, especially in simpler network structures."],["While simpler networks can exhibit diverse solutions and varying losses, more complex models demonstrate increased stability and repeatable convergence."]]],[]]