নিউরাল নেটওয়ার্ক প্রশিক্ষণ

ব্যাকপ্রোপগেশন হল নিউরাল নেটওয়ার্কের জন্য সবচেয়ে সাধারণ প্রশিক্ষণ অ্যালগরিদম। এটি মাল্টি-লেয়ার নিউরাল নেটওয়ার্কের জন্য গ্রেডিয়েন্ট ডিসেন্টকে সম্ভবপর করে তোলে। TensorFlow স্বয়ংক্রিয়ভাবে ব্যাকপ্রোপগেশন পরিচালনা করে, তাই আপনার অ্যালগরিদম সম্পর্কে গভীর বোঝার প্রয়োজন নেই। এটি কীভাবে কাজ করে তা বোঝার জন্য, নিম্নলিখিতটি অনুসরণ করুন: ব্যাকপ্রোপগেশন অ্যালগরিদম ভিজ্যুয়াল ব্যাখ্যা । আপনি পূর্ববর্তী ব্যাখ্যার মাধ্যমে স্ক্রোল করার সময়, নিম্নলিখিতটি নোট করুন:

  • গ্রাফের মাধ্যমে কীভাবে ডেটা প্রবাহিত হয়।
  • কিভাবে গতিশীল প্রোগ্রামিং আমাদের গ্রাফের মাধ্যমে দ্রুতগতিতে অনেক পাথ কম্পিউটিং এড়াতে দেয়। এখানে "ডাইনামিক প্রোগ্রামিং" মানে ফরোয়ার্ড এবং ব্যাকওয়ার্ড পাসের মধ্যবর্তী ফলাফল রেকর্ড করা।

নিউরাল নেট প্রশিক্ষণ

  • গ্রেডিয়েন্ট গুরুত্বপূর্ণ
    • যদি এটি ভিন্ন হয়, আমরা সম্ভবত এটি শিখতে পারি
  • গ্রেডিয়েন্ট গুরুত্বপূর্ণ
    • যদি এটি ভিন্ন হয়, আমরা সম্ভবত এটি শিখতে পারি
  • গ্রেডিয়েন্ট অদৃশ্য হতে পারে
    • প্রতিটি অতিরিক্ত স্তর ধারাবাহিকভাবে সংকেত বনাম শব্দ কমাতে পারে
    • ReLus এখানে দরকারী
  • গ্রেডিয়েন্ট গুরুত্বপূর্ণ
    • যদি এটি ভিন্ন হয়, আমরা সম্ভবত এটি শিখতে পারি
  • গ্রেডিয়েন্ট অদৃশ্য হতে পারে
    • প্রতিটি অতিরিক্ত স্তর ধারাবাহিকভাবে সংকেত বনাম শব্দ কমাতে পারে
    • ReLus এখানে দরকারী
  • গ্রেডিয়েন্ট বিস্ফোরিত হতে পারে
    • শেখার হার এখানে গুরুত্বপূর্ণ
    • ব্যাচ স্বাভাবিককরণ (উপযোগী গাঁট) সাহায্য করতে পারে
  • গ্রেডিয়েন্ট গুরুত্বপূর্ণ
    • যদি এটি ভিন্ন হয়, আমরা সম্ভবত এটি শিখতে পারি
  • গ্রেডিয়েন্ট অদৃশ্য হতে পারে
    • প্রতিটি অতিরিক্ত স্তর ধারাবাহিকভাবে সংকেত বনাম শব্দ কমাতে পারে
    • ReLus এখানে দরকারী
  • গ্রেডিয়েন্ট বিস্ফোরিত হতে পারে
    • শেখার হার এখানে গুরুত্বপূর্ণ
    • ব্যাচ স্বাভাবিককরণ (উপযোগী গাঁট) সাহায্য করতে পারে
  • ReLu স্তর মারা যেতে পারে
    • শান্ত থাকুন এবং আপনার শেখার হার কমিয়ে দিন
  • আমরা চাই আমাদের বৈশিষ্ট্যগুলি যুক্তিসঙ্গত স্কেল হোক৷
    • মোটামুটি শূন্য-কেন্দ্রিক, [-1, 1] পরিসর প্রায়ই ভাল কাজ করে
    • গ্রেডিয়েন্ট ডিসেন্ট একত্রিত হতে সাহায্য করে; NaN ফাঁদ এড়িয়ে চলুন
    • বহিরাগত মান এড়ানোও সাহায্য করতে পারে
  • কয়েকটি আদর্শ পদ্ধতি ব্যবহার করতে পারেন:
    • রৈখিক স্কেলিং
    • হার্ড ক্যাপ (ক্লিপিং) সর্বোচ্চ থেকে সর্বনিম্ন
    • লগ স্কেলিং
  • ড্রপআউট: নিয়মিতকরণের আরেকটি রূপ, NN-এর জন্য উপযোগী
  • একটি একক গ্রেডিয়েন্ট ধাপের জন্য একটি নেটওয়ার্কে এলোমেলোভাবে "ড্রপ আউট" ইউনিট দ্বারা কাজ করে
    • এখানে মডেল ensemble একটি সংযোগ আছে
  • আপনি যত বেশি বাদ পড়বেন, নিয়মিতকরণ তত শক্তিশালী হবে
    • 0.0 = কোন ড্রপআউট নিয়মিতকরণ
    • 1.0 = সবকিছু ছেড়ে দিন! কিছুই শেখে না
    • মধ্যবর্তী মান আরো দরকারী