সরলতার জন্য নিয়মিতকরণ: Lambda

মডেল ডেভেলপাররা ল্যাম্বডা (যাকে নিয়মিতকরণের হারও বলা হয়) নামে পরিচিত একটি স্কেলার দ্বারা এর মানকে গুণ করে নিয়মিতকরণের শব্দের সামগ্রিক প্রভাবের সুর করে। অর্থাৎ, মডেল ডেভেলপাররা নিম্নলিখিতগুলি করার লক্ষ্য রাখে:

$$\text{minimize(Loss(Data|Model)} + \lambda \text{ complexity(Model))}$$

L 2 নিয়মিতকরণ করা একটি মডেলের উপর নিম্নলিখিত প্রভাব ফেলে

  • ওজন মান 0 এর দিকে উৎসাহিত করে (কিন্তু ঠিক 0 নয়)
  • একটি স্বাভাবিক (ঘণ্টা-আকৃতির বা গাউসিয়ান) বন্টন সহ 0-এর দিকে ওজনের গড়কে উৎসাহিত করে।

ল্যাম্বডা মান বৃদ্ধি নিয়মিতকরণ প্রভাবকে শক্তিশালী করে। উদাহরণস্বরূপ, ল্যাম্বডার উচ্চ মানের জন্য ওজনের হিস্টোগ্রাম চিত্র 2-এ দেখানো হিসাবে দেখাতে পারে।

শূন্যের গড় এবং একটি স্বাভাবিক বন্টন সহ একটি মডেলের ওজনের হিস্টোগ্রাম।

চিত্র 2. ওজনের হিস্টোগ্রাম।

ল্যাম্বডার মান কমানোর ফলে একটি ফ্লাটার হিস্টোগ্রাম পাওয়া যায়, যেমনটি চিত্র 3-এ দেখানো হয়েছে।

শূন্যের গড় সহ একটি মডেলের ওজনের হিস্টোগ্রাম যা একটি সমতল বন্টন এবং একটি স্বাভাবিক বন্টনের মধ্যে কোথাও।

চিত্র 3. কম ল্যাম্বডা মান দ্বারা উত্পাদিত ওজনের হিস্টোগ্রাম।

ল্যাম্বডা মান নির্বাচন করার সময়, লক্ষ্য হল সরলতা এবং প্রশিক্ষণ-ডেটা ফিটের মধ্যে সঠিক ভারসাম্য বজায় রাখা:

  • আপনার ল্যাম্বডা মান খুব বেশি হলে, আপনার মডেল সহজ হবে, কিন্তু আপনি আপনার ডেটা কমানোর ঝুঁকি চালান। আপনার মডেল দরকারী ভবিষ্যদ্বাণী করার জন্য প্রশিক্ষণ ডেটা সম্পর্কে যথেষ্ট শিখবে না।

  • আপনার ল্যাম্বডা মান খুব কম হলে, আপনার মডেল আরও জটিল হবে, এবং আপনি আপনার ডেটা অতিরিক্ত ফিট করার ঝুঁকি চালান। আপনার মডেল প্রশিক্ষণ ডেটার বিশেষত্ব সম্পর্কে খুব বেশি শিখবে এবং নতুন ডেটাতে সাধারণীকরণ করতে সক্ষম হবে না।

ল্যাম্বডার আদর্শ মান একটি মডেল তৈরি করে যা নতুন, পূর্বে অদেখা তথ্যের জন্য ভালোভাবে সাধারণীকরণ করে। দুর্ভাগ্যবশত, ল্যাম্বডার সেই আদর্শ মানটি ডেটা-নির্ভর, তাই আপনাকে ম্যানুয়ালি বা স্বয়ংক্রিয়ভাবে কিছুটিউনিং।