Tetap teratur dengan koleksi
Simpan dan kategorikan konten berdasarkan preferensi Anda.
Inisialisasi Jaringan Neural
Latihan ini menggunakan data XOR lagi, tetapi melihat tingkat pengulangannya
pelatihan Jaringan Neural dan
pentingnya inisialisasi.
Tugas 1: Jalankan model seperti yang diberikan empat atau lima kali. Sebelum setiap percobaan,
tekan tombol Reset the network untuk mendapatkan inisialisasi acak baru.
(Tombol Reset jaringan adalah tanda panah reset melingkar di sebelah
di sebelah kiri tombol Putar.) Biarkan setiap uji coba berjalan setidaknya 500 langkah
untuk memastikan konvergensi. Ke bentuk apa saja output model dikonvergensi?
Apa yang ditunjukkan di sini tentang peran inisialisasi dalam non-konveks
pengoptimalan?
Tugas 2: Coba buat model yang sedikit lebih kompleks dengan menambahkan lapisan
dan beberapa node tambahan. Ulangi uji coba dari Tugas 1. Apakah ini
menambahkan stabilitas tambahan pada hasilnya?
(Jawaban muncul tepat di bawah latihan.)
Klik ikon plus untuk jawaban Tugas 1.
Model yang dipelajari memiliki bentuk yang berbeda di setiap run. Konvergen
kerugian pengujian bervariasi hampir 2X dari terendah hingga tertinggi.
Klik ikon plus untuk jawaban Tugas 2.
Menambahkan lapisan dan node ekstra akan memberikan hasil yang lebih berulang.
Pada setiap sesi, tampilan model yang dihasilkan kurang lebih sama. Selain itu,
kerugian pengujian konvergensi menunjukkan lebih sedikit variasi di antara sesi.
[[["Mudah dipahami","easyToUnderstand","thumb-up"],["Memecahkan masalah saya","solvedMyProblem","thumb-up"],["Lainnya","otherUp","thumb-up"]],[["Informasi yang saya butuhkan tidak ada","missingTheInformationINeed","thumb-down"],["Terlalu rumit/langkahnya terlalu banyak","tooComplicatedTooManySteps","thumb-down"],["Sudah usang","outOfDate","thumb-down"],["Masalah terjemahan","translationIssue","thumb-down"],["Masalah kode / contoh","samplesCodeIssue","thumb-down"],["Lainnya","otherDown","thumb-down"]],["Terakhir diperbarui pada 2024-08-22 UTC."],[[["Neural networks with the same architecture and data can converge to different solutions due to random initialization, highlighting its role in non-convex optimization."],["Increasing the complexity of a neural network by adding layers and nodes can improve the stability and repeatability of training results, leading to more consistent model performance."],["Initialization significantly impacts the final model and the variance in test loss, especially in simpler network structures."],["While simpler networks can exhibit diverse solutions and varying losses, more complex models demonstrate increased stability and repeatable convergence."]]],[]]