পণ্য সরবরাহ সংশ্লেষণ

ঠিক 0 বা 1 ভবিষ্যদ্বাণী করার পরিবর্তে, লজিস্টিক রিগ্রেশন একটি সম্ভাব্যতা তৈরি করে- 0 এবং 1 এর মধ্যে একটি মান, একচেটিয়া। উদাহরণস্বরূপ, স্প্যাম সনাক্তকরণের জন্য একটি লজিস্টিক রিগ্রেশন মডেল বিবেচনা করুন। যদি মডেলটি একটি নির্দিষ্ট ইমেল বার্তায় 0.932 এর মান অনুমান করে, তাহলে এটি ইমেল বার্তাটি স্প্যাম হওয়ার সম্ভাবনা 93.2% বোঝায়। আরও স্পষ্টভাবে, এর অর্থ হল অসীম প্রশিক্ষণের উদাহরণের সীমার মধ্যে, মডেলের 0.932 ভবিষ্যদ্বাণী করা উদাহরণগুলির সেটটি আসলে 93.2% সময়ের স্প্যাম হবে এবং বাকি 6.8% হবে না।

পণ্য সরবরাহ সংশ্লেষণ

  • বাঁকানো কয়েনের জন্য হেডসের সম্ভাব্যতার পূর্বাভাস দেওয়ার সমস্যাটি কল্পনা করুন
  • আপনি মোড়ের কোণ, মুদ্রার ভর ইত্যাদির মতো বৈশিষ্ট্যগুলি ব্যবহার করতে পারেন।
  • আপনি ব্যবহার করতে পারেন সহজ মডেল কি?
  • কি ভুল হতে পারে?
2 কয়েন বাঁকানো
  • অনেক সমস্যার আউটপুট হিসাবে একটি সম্ভাব্যতা অনুমান প্রয়োজন
  • লজিস্টিক রিগ্রেশন লিখুন
  • অনেক সমস্যার আউটপুট হিসাবে একটি সম্ভাব্যতা অনুমান প্রয়োজন
  • লজিস্টিক রিগ্রেশন লিখুন
  • সুবিধাজনক কারণ সম্ভাব্যতার অনুমানগুলি ক্রমাঙ্কিত
    • উদাহরণস্বরূপ, p(বাড়ি বিক্রি হবে) * মূল্য = প্রত্যাশিত ফলাফল
  • অনেক সমস্যার আউটপুট হিসাবে একটি সম্ভাব্যতা অনুমান প্রয়োজন
  • লজিস্টিক রিগ্রেশন লিখুন
  • সুবিধাজনক কারণ সম্ভাব্যতার অনুমানগুলি ক্রমাঙ্কিত
    • উদাহরণস্বরূপ, p(বাড়ি বিক্রি হবে) * মূল্য = প্রত্যাশিত ফলাফল
  • আমাদের একটি বাইনারি শ্রেণীবিভাগের প্রয়োজন হলে এটিও কার্যকর
    • স্প্যাম না স্প্যাম? → p(স্প্যাম)

$$ y' = \frac{1}{1 + e^{-(w^Tx+b)}} $$

\(\text{Where:} \)\(x\text{: Provides the familiar linear model}\)\(1+e^{-(...)}\text{: Squish through a sigmoid}\)

লজিস্টিক-রিগ্রেশন সমীকরণের গ্রাফ

$$ LogLoss = \sum_{(x,y)\in D} -y\,log(y') - (1 - y)\,log(1 - y') $$

লগ লস বনাম পূর্বাভাসিত মানের দুটি গ্রাফ: একটি 0.0 এর লক্ষ্য মানের জন্য (যা উপরে এবং ডানদিকে থাকে) এবং একটি 1.0 এর লক্ষ্য মানের জন্য (যা নিচে এবং বামে থাকে)
  • লজিস্টিক রিগ্রেশনের জন্য নিয়মিতকরণ অত্যন্ত গুরুত্বপূর্ণ।
    • উপসর্গ মনে রাখবেন
    • এটি উচ্চ মাত্রায় 0-তে ক্ষতি চালানোর চেষ্টা চালিয়ে যাবে
  • লজিস্টিক রিগ্রেশনের জন্য নিয়মিতকরণ অত্যন্ত গুরুত্বপূর্ণ।
    • উপসর্গ মনে রাখবেন
    • এটি উচ্চ মাত্রায় 0-তে ক্ষতি চালানোর চেষ্টা চালিয়ে যাবে
  • দুটি কৌশল বিশেষভাবে দরকারী:
    • এল 2 নিয়মিতকরণ (ওরফে এল 2 ওজন ক্ষয়) - বিশাল ওজনকে শাস্তি দেয়।
    • প্রাথমিক থামানো - প্রশিক্ষণের ধাপ বা শেখার হার সীমিত করা।
  • লিনিয়ার লজিস্টিক রিগ্রেশন অত্যন্ত দক্ষ।
    • খুব দ্রুত প্রশিক্ষণ এবং ভবিষ্যদ্বাণী বার.
    • শর্ট/ওয়াইড মডেলে প্রচুর র‍্যাম ব্যবহার করা হয়।