সেভ করা পৃষ্ঠা গুছিয়ে রাখতে 'সংগ্রহ' ব্যবহার করুন
আপনার পছন্দ অনুযায়ী কন্টেন্ট সেভ করুন ও সঠিক বিভাগে রাখুন।
নিউরাল নেট ইনিশিয়ালাইজেশন
এই ব্যায়ামটি আবার XOR ডেটা ব্যবহার করে, কিন্তু নিউরাল নেট প্রশিক্ষণের পুনরাবৃত্তিযোগ্যতা এবং প্রাথমিককরণের গুরুত্বকে দেখে।
টাস্ক 1: চার বা পাঁচবার দেওয়া মডেলটি চালান। প্রতিটি ট্রায়ালের আগে, একটি নতুন র্যান্ডম ইনিশিয়ালাইজেশন পেতে নেটওয়ার্ক রিসেট বোতাম টিপুন। ( নেটওয়ার্ক রিসেট বোতামটি প্লে বোতামের ঠিক বাম দিকে বৃত্তাকার রিসেট তীর।) কনভারজেন্স নিশ্চিত করতে প্রতিটি ট্রায়ালকে কমপক্ষে 500টি ধাপে চলতে দিন। প্রতিটি মডেলের আউটপুট কোন আকারে একত্রিত হয়? এটি অ-উত্তল অপ্টিমাইজেশানে প্রাথমিককরণের ভূমিকা সম্পর্কে কী বলে?
টাস্ক 2: একটি স্তর এবং কয়েকটি অতিরিক্ত নোড যোগ করে মডেলটিকে আরও জটিল করার চেষ্টা করুন। টাস্ক 1 থেকে ট্রায়ালগুলি পুনরাবৃত্তি করুন। এটি কি ফলাফলগুলিতে কোনও অতিরিক্ত স্থিতিশীলতা যোগ করে?
(উত্তরগুলি অনুশীলনের ঠিক নীচে প্রদর্শিত হবে।)
টাস্ক 1 এর উত্তরের জন্য প্লাস আইকনে ক্লিক করুন।
শেখা মডেল প্রতিটি রান বিভিন্ন আকার ছিল. একত্রিত পরীক্ষার ক্ষতি সর্বনিম্ন থেকে সর্বোচ্চ পর্যন্ত প্রায় 2X পরিবর্তিত হয়েছে।
টাস্ক 2-এর উত্তরের জন্য প্লাস আইকনে ক্লিক করুন।
স্তর এবং অতিরিক্ত নোড যোগ করার ফলে আরও পুনরাবৃত্তিযোগ্য ফলাফল পাওয়া যায়। প্রতিটি রানে, ফলস্বরূপ মডেলটি মোটামুটি একই রকম দেখায়। অধিকন্তু, একত্রিত টেস্ট ক্ষতি রানের মধ্যে কম পার্থক্য দেখায়।
[[["সহজে বোঝা যায়","easyToUnderstand","thumb-up"],["আমার সমস্যার সমাধান হয়েছে","solvedMyProblem","thumb-up"],["অন্যান্য","otherUp","thumb-up"]],[["এতে আমার প্রয়োজনীয় তথ্য নেই","missingTheInformationINeed","thumb-down"],["খুব জটিল / অনেক ধাপ","tooComplicatedTooManySteps","thumb-down"],["পুরনো","outOfDate","thumb-down"],["অনুবাদ সংক্রান্ত সমস্যা","translationIssue","thumb-down"],["নমুনা / কোড সংক্রান্ত সমস্যা","samplesCodeIssue","thumb-down"],["অন্যান্য","otherDown","thumb-down"]],["2024-08-22 UTC-তে শেষবার আপডেট করা হয়েছে।"],[],[]]