با مجموعهها، منظم بمانید
ذخیره و طبقهبندی محتوا براساس اولویتهای شما.
راه اندازی شبکه عصبی
این تمرین دوباره از دادههای XOR استفاده میکند، اما به تکرارپذیری شبکههای عصبی آموزشی و اهمیت مقداردهی اولیه میپردازد.
وظیفه 1: مدل را چهار یا پنج بار اجرا کنید. قبل از هر آزمایش، دکمه Reset the network را بزنید تا یک مقدار اولیه تصادفی جدید دریافت کنید. (دکمه Reset the network ، فلش دایرهای بازنشانی درست در سمت چپ دکمه Play است.) اجازه دهید هر آزمایش حداقل 500 مرحله اجرا شود تا از همگرایی اطمینان حاصل شود. خروجی هر مدل به چه شکلی همگرا می شود؟ این در مورد نقش مقداردهی اولیه در بهینه سازی غیر محدب چه می گوید؟
وظیفه 2: سعی کنید با افزودن یک لایه و چند گره اضافی، مدل را کمی پیچیده تر کنید. آزمایشات را از کار 1 تکرار کنید. آیا این ثبات اضافی به نتایج اضافه می کند؟
(پاسخ ها درست در زیر تمرین ظاهر می شوند.)
برای پاسخ به کار 1 روی نماد مثبت کلیک کنید.
مدل آموخته شده در هر اجرا اشکال مختلفی داشت. تلفات آزمون همگرا تقریباً 2 برابر از کمترین به بالاترین تغییر کرد.
برای پاسخ به Task 2 روی نماد مثبت کلیک کنید.
افزودن لایه و گره های اضافی نتایج قابل تکرار بیشتری را ایجاد کرد. در هر اجرا، مدل حاصل تقریباً یکسان به نظر می رسید. علاوه بر این، از دست دادن آزمون همگرا واریانس کمتری را بین اجراها نشان داد.
تاریخ آخرین بهروزرسانی 2024-08-22 بهوقت ساعت هماهنگ جهانی.
[[["درک آسان","easyToUnderstand","thumb-up"],["مشکلم را برطرف کرد","solvedMyProblem","thumb-up"],["غیره","otherUp","thumb-up"]],[["اطلاعاتی که نیاز دارم وجود ندارد","missingTheInformationINeed","thumb-down"],["بیشازحد پیچیده/ مراحل بسیار زیاد","tooComplicatedTooManySteps","thumb-down"],["قدیمی","outOfDate","thumb-down"],["مشکل ترجمه","translationIssue","thumb-down"],["مشکل کد / نمونهها","samplesCodeIssue","thumb-down"],["غیره","otherDown","thumb-down"]],["تاریخ آخرین بهروزرسانی 2024-08-22 بهوقت ساعت هماهنگ جهانی."],[[["Neural networks with the same architecture and data can converge to different solutions due to random initialization, highlighting its role in non-convex optimization."],["Increasing the complexity of a neural network by adding layers and nodes can improve the stability and repeatability of training results, leading to more consistent model performance."],["Initialization significantly impacts the final model and the variance in test loss, especially in simpler network structures."],["While simpler networks can exhibit diverse solutions and varying losses, more complex models demonstrate increased stability and repeatable convergence."]]],[]]