تنظيم صفحاتك في مجموعات
يمكنك حفظ المحتوى وتصنيفه حسب إعداداتك المفضّلة.
الاطّلاع على عملية التسوية في المستوى 2
يحتوي هذا التمرين على مجموعة بيانات تدريب صغيرة وصاخبة.
في هذا النوع من الإعدادات، يشكّل فرط التخصيص مصدر قلق حقيقيًا. لحسن الحظ،
فإن التسوية قد تكون مفيدة.
يتكون هذا التمرين من ثلاث مهام ذات صلة. لتبسيط المقارنات
عبر المهام الثلاث، قم بتشغيل كل مهمة في علامة تبويب منفصلة.
المهمة 1: تشغيل النموذج كما هو محدّد لما لا يقل عن 500 حقبة. ملاحظة
ما يلي:
عدد مرّات فقدان الاختبار
الدلتا بين خسارة الاختبار وفقدان التدريب.
تتقاطع الأوزان التي تم تعلمها للخصائص والسمة.
(السُمك النسبي لكل خط بدءًا من FEATURES إلى OUTPUT
الوزن الذي تم تعلمه لتلك الميزة أو تقاطع الميزة.
يمكنك العثور على قيم الوزن الدقيقة من خلال تمرير مؤشر الماوس فوق
كل سطر).
المهمة 2: (يمكنك تنفيذ هذه المهمة في علامة تبويب منفصلة.) زيادة
معدّل التسوية من 0 إلى 0.3. ثم، قم بتشغيل
عن 500 حقبة على الأقل وإيجاد إجابات عن الأسئلة التالية:
كيف يختلف نقص الاختبار في المهمة 2 عن خسارة الاختبار في المهمة
1؟
كيف يحدث الفارق بين خسارة الاختبار وفقدان التدريب في المهمة 2؟
عن المهمة 1؟
كيف تختلف الأوزان المستفادة لكل خاصية عن تقاطع الخصائص؟
من المهمة 2 إلى المهمة 1؟
ماذا تقول النتائج حول مدى تعقيد النموذج؟
المهمة 3: تجربة معدل التسوية، ومحاولة العثور على
القيمة المثلى.
(تظهر الإجابات أسفل التمرين مباشرةً.)
انقر على رمز علامة الجمع للحصول على الإجابات.
تؤدي زيادة معدل التسوية من 0 إلى 0.3 إلى حدوث ما يلي:
التأثيرات:
انخفضت نسبة انخفاض الاختبار بشكل كبير.
ملاحظة: بينما تقل خسارة الاختبار، خسارة التدريب في الواقع
الزيادة. وهذا أمر متوقّع، لأنك أضفت تصنيفًا آخر
مصطلح لدالة الخسارة لعقوبة التعقيد. في نهاية المطاف، كل ذلك
هو خسارة الاختبار، لأن هذا هو المقياس الحقيقي لقدرة النموذج على
وعمل تنبؤات جيدة بشأن البيانات الجديدة.
تنخفض الدلتا بين خسارة الاختبار وخسارة التدريب بشكل كبير.
تحمل الأوزان للميزات وبعض مواضع التقاطعات على الخصائص أقل
والقيم المطلقة، مما يعني انخفاض درجة تعقيد النموذج.
ونظرًا للتوزيع العشوائي في مجموعة البيانات، من المستحيل التنبؤ
معدل التسوية الذي نتج أفضل النتائج لك.
بالنسبة لنا، تم إنتاج معدل تسوية إما 0.3 أو 1 عمومًا
بأقل خسارة في الاختبار.
تاريخ التعديل الأخير: 2024-08-22 (حسب التوقيت العالمي المتفَّق عليه)
[[["يسهُل فهم المحتوى.","easyToUnderstand","thumb-up"],["ساعَدني المحتوى في حلّ مشكلتي.","solvedMyProblem","thumb-up"],["غير ذلك","otherUp","thumb-up"]],[["لا يحتوي على المعلومات التي أحتاج إليها.","missingTheInformationINeed","thumb-down"],["الخطوات معقدة للغاية / كثيرة جدًا.","tooComplicatedTooManySteps","thumb-down"],["المحتوى قديم.","outOfDate","thumb-down"],["ثمة مشكلة في الترجمة.","translationIssue","thumb-down"],["مشكلة في العيّنات / التعليمات البرمجية","samplesCodeIssue","thumb-down"],["غير ذلك","otherDown","thumb-down"]],["تاريخ التعديل الأخير: 2024-08-22 (حسب التوقيت العالمي المتفَّق عليه)"],[[["This exercise explores the impact of *L~2~* regularization on model performance, particularly in addressing overfitting with a small, noisy dataset."],["The tasks involve observing the effects of varying regularization rates on test loss, training loss, and learned feature weights."],["Increasing the regularization rate generally decreases test loss and model complexity, but might increase training loss."],["Experimentation is encouraged to identify the optimal regularization rate for achieving the lowest test loss on unseen data."]]],[]]