লজিস্টিক রিগ্রেশন: ক্ষতি এবং নিয়মিতকরণ

লিনিয়ার রিগ্রেশন মডেলের মতোই একই প্রক্রিয়ায় লজিস্টিক রিগ্রেশন মডেল প্রশিক্ষণ দেওয়া হয়, তবে দুটি প্রধান পার্থক্য রয়েছে:

পরবর্তী অধ্যায়গুলোতে এই দুটি বিবেচ্য বিষয় আরও বিশদভাবে আলোচনা করা হয়েছে।

লগ লস

লিনিয়ার রিগ্রেশন মডিউলে , আপনি লস ফাংশন হিসেবে স্কয়ার্ড লস (যাকে L2 লসও বলা হয়) ব্যবহার করেছেন। স্কয়ার্ড লস এমন একটি লিনিয়ার মডেলের জন্য ভালোভাবে কাজ করে যেখানে আউটপুট মানগুলোর পরিবর্তনের হার স্থির থাকে। উদাহরণস্বরূপ, $y' = b + 3x_1$ লিনিয়ার মডেলটির ক্ষেত্রে, প্রতিবার আপনি ইনপুট মান $x_1$ ১ করে বাড়ালে, আউটপুট মান $y'$ ৩ করে বেড়ে যায়।

তবে, একটি লজিস্টিক রিগ্রেশন মডেলের পরিবর্তনের হার স্থির থাকে না । যেমনটি আপনি 'সম্ভাবনা গণনা' অংশে দেখেছেন, সিগময়েড কার্ভটি রৈখিক না হয়ে S-আকৃতির হয়। যখন লগ-অডস ($z$) এর মান ০-এর কাছাকাছি থাকে, তখন $z$-এর সামান্য বৃদ্ধি $y$-তে অনেক বড় পরিবর্তন ঘটায়, যা $z$ একটি বড় ধনাত্মক বা ঋণাত্মক সংখ্যা হওয়ার ক্ষেত্রে ঘটে না। নিচের সারণিতে ৫ থেকে ১০ পর্যন্ত ইনপুট মানের জন্য সিগময়েড ফাংশনের আউটপুট এবং ফলাফলের পার্থক্যগুলো সঠিকভাবে নির্ণয়ের জন্য প্রয়োজনীয় নির্ভুলতা দেখানো হয়েছে।

ইনপুট লজিস্টিক আউটপুট প্রয়োজনীয় নির্ভুলতার অঙ্ক
০.৯৯৩
০.৯৯৭
০.৯৯৯
০.৯৯৯৭
০.৯৯৯৯
১০ ০.৯৯৯৯৮

সিগময়েড ফাংশনের ত্রুটি গণনা করার জন্য যদি আপনি স্কয়ার্ড লস ব্যবহার করেন, তাহলে আউটপুট যখন 0 এবং 1 এর ক্রমশ কাছাকাছি আসতে থাকবে, তখন এই মানগুলোকে ট্র্যাক করার জন্য প্রয়োজনীয় নির্ভুলতা বজায় রাখতে আপনার আরও বেশি মেমরির প্রয়োজন হবে।

এর পরিবর্তে, লজিস্টিক রিগ্রেশনের লস ফাংশন হলো লগ লস (Log Loss )। লগ লস সমীকরণটি শুধু ডেটা থেকে প্রেডিকশনের দূরত্বের পরিবর্তে, পরিবর্তনের মাত্রার লগারিদম প্রদান করে। লগ লস নিম্নোক্তভাবে গণনা করা হয়:

লগ লস = - (1/N) Σᵢ=1ᵀ [yᵢ log(yᵢ') + (1 - yᵢ) log(1 - yᵢ')]

যেখানে:

  • \(N\) ডেটাসেটে লেবেলযুক্ত উদাহরণের সংখ্যা
  • \(i\) ডেটা সেটে একটি উদাহরণের সূচক হল (যেমন, \((x_3, y_3)\)ডেটাসেটের তৃতীয় উদাহরণ)
  • \(y_i\) এর জন্য লেবেলটি হল \(i\)তম উদাহরণ। যেহেতু এটি লজিস্টিক রিগ্রেশন, \(y_i\) অবশ্যই ০ অথবা ১ হতে হবে।
  • \(y_i'\) আপনার মডেলের পূর্বাভাস কি এর জন্য \(i\)প্রদত্ত বৈশিষ্ট্যগুলির সেটের ভিত্তিতে তম উদাহরণ (০ এবং ১ এর মধ্যে কোনো একটি মান)। \(x_i\).

লজিস্টিক রিগ্রেশনে নিয়মিতকরণ

রেগুলারাইজেশন , যা প্রশিক্ষণের সময় মডেলের জটিলতার জন্য দণ্ড আরোপ করার একটি কৌশল, লজিস্টিক রিগ্রেশন মডেলিং-এ অত্যন্ত গুরুত্বপূর্ণ। রেগুলারাইজেশন ছাড়া, লজিস্টিক রিগ্রেশনের অ্যাসিম্পটোটিক প্রকৃতি মডেলটিতে প্রচুর সংখ্যক ফিচার থাকলে লসকে ক্রমাগত ০-এর দিকে চালিত করতে থাকবে। ফলস্বরূপ, বেশিরভাগ লজিস্টিক রিগ্রেশন মডেল মডেলের জটিলতা কমাতে নিম্নলিখিত দুটি কৌশলের মধ্যে একটি ব্যবহার করে: