تنظيم صفحاتك في مجموعات
يمكنك حفظ المحتوى وتصنيفه حسب إعداداتك المفضّلة.
تهيئة الشبكة العصبونية
يستخدم هذا التمرين بيانات XOR مرة أخرى، ولكنه يأخذ في الاعتبار قابلية التكرار
تدريب الشبكات العصبية وأهمية التهيئة.
المهمة 1: نفِّذ النموذج على النحو المحدّد أربع أو خمس مرات. قبل كل تجربة،
انقر على الزر إعادة ضبط الشبكة للحصول على إعداد عشوائي جديد.
(زر إعادة ضبط الشبكة هو سهم إعادة الضبط الدائري
يسار زر التشغيل). السماح بتشغيل كل تجربة لمدة 500 خطوة على الأقل
لضمان التقارب. ما الشكل الذي يتقارب معه ناتج كل نموذج؟
ماذا يقول هذا عن دور التهيئة في الخلايا غير المحدبة
التحسين؟
المهمة 2: حاول جعل النموذج أكثر تعقيدًا قليلاً من خلال إضافة طبقة
وعقدين إضافيين. كرر التجارب من المهمة 1. هل هذا
إضافة أي استقرار إضافي إلى النتائج؟
(تظهر الإجابات أسفل التمرين مباشرةً.)
انقر فوق رمز الإضافة للحصول على إجابة على المهمة 1.
كان للنموذج الذي تم تعلمه أشكال مختلفة في كل تمرين. المتقارب
تراوحت نسبة فقدان الاختبارات تقريبًا من الضعف إلى الأعلى.
انقر فوق رمز الإضافة للحصول على إجابة على المهمة 2.
أدت إضافة الطبقة والعُقد الإضافية إلى الحصول على نتائج أكثر تكرارًا.
وفي كل مرة، بدا النموذج الناتج متشابهًا تقريبًا. بالإضافة إلى ذلك،
أظهرت خسارة الاختبار المتقارب تباينًا أقل بين عمليات التشغيل.
تاريخ التعديل الأخير: 2024-08-22 (حسب التوقيت العالمي المتفَّق عليه)
[[["يسهُل فهم المحتوى.","easyToUnderstand","thumb-up"],["ساعَدني المحتوى في حلّ مشكلتي.","solvedMyProblem","thumb-up"],["غير ذلك","otherUp","thumb-up"]],[["لا يحتوي على المعلومات التي أحتاج إليها.","missingTheInformationINeed","thumb-down"],["الخطوات معقدة للغاية / كثيرة جدًا.","tooComplicatedTooManySteps","thumb-down"],["المحتوى قديم.","outOfDate","thumb-down"],["ثمة مشكلة في الترجمة.","translationIssue","thumb-down"],["مشكلة في العيّنات / التعليمات البرمجية","samplesCodeIssue","thumb-down"],["غير ذلك","otherDown","thumb-down"]],["تاريخ التعديل الأخير: 2024-08-22 (حسب التوقيت العالمي المتفَّق عليه)"],[[["Neural networks with the same architecture and data can converge to different solutions due to random initialization, highlighting its role in non-convex optimization."],["Increasing the complexity of a neural network by adding layers and nodes can improve the stability and repeatability of training results, leading to more consistent model performance."],["Initialization significantly impacts the final model and the variance in test loss, especially in simpler network structures."],["While simpler networks can exhibit diverse solutions and varying losses, more complex models demonstrate increased stability and repeatable convergence."]]],[]]