সেভ করা পৃষ্ঠা গুছিয়ে রাখতে 'সংগ্রহ' ব্যবহার করুন
আপনার পছন্দ অনুযায়ী কন্টেন্ট সেভ করুন ও সঠিক বিভাগে রাখুন।
একটি প্রথম নিউরাল নেটওয়ার্ক
এই অনুশীলনে, আমরা আমাদের প্রথম ছোট নিউরাল নেট প্রশিক্ষণ দেব। নিউরাল নেট আমাদের সুস্পষ্ট বৈশিষ্ট্য ক্রস ব্যবহার না করে অরৈখিক মডেল শেখার একটি উপায় দেবে।
টাস্ক 1: প্রদত্ত মডেলটি আমাদের দুটি ইনপুট বৈশিষ্ট্যকে একক নিউরনে একত্রিত করে। এই মডেল কোন অরৈখিকতা শিখতে হবে? আপনার অনুমান নিশ্চিত করতে এটি চালান.
টাস্ক 2: লুকানো স্তরে নিউরনের সংখ্যা 1 থেকে 2 পর্যন্ত বাড়ানোর চেষ্টা করুন এবং একটি লিনিয়ার অ্যাক্টিভেশন থেকে ReLU-এর মতো ননলাইনার অ্যাক্টিভেশনে পরিবর্তন করার চেষ্টা করুন। আপনি কি এমন একটি মডেল তৈরি করতে পারেন যা অরৈখিকতা শিখতে পারে? এটি কার্যকরভাবে ডেটা মডেল করতে পারে?
টাস্ক 3: লুকানো স্তরে নিউরনের সংখ্যা 2 থেকে 3 বাড়ানোর চেষ্টা করুন, ReLU এর মতো একটি ননলাইনার অ্যাক্টিভেশন ব্যবহার করে। এটি কার্যকরভাবে ডেটা মডেল করতে পারে? কিভাবে মডেল গুণমান রান থেকে রান পরিবর্তিত হয়?
টাস্ক 4: প্রতি স্তরে লুকানো স্তর এবং নিউরন যোগ বা মুছে পরীক্ষা চালিয়ে যান। এছাড়াও শেখার হার, নিয়মিতকরণ এবং অন্যান্য শেখার সেটিংস পরিবর্তন করতে দ্বিধা বোধ করুন। আপনি ব্যবহার করতে পারেন এমন নিউরন এবং স্তরগুলির ক্ষুদ্রতম সংখ্যা কী যা 0.177 বা তার কম পরীক্ষা ক্ষতি দেয়?
মডেলের আকার বাড়ানো কি ফিট উন্নত করে, বা এটি কত দ্রুত একত্রিত হয়? এটি কি পরিবর্তন করে কত ঘন ঘন এটি একটি ভাল মডেলে রূপান্তরিত হয়? উদাহরণস্বরূপ, নিম্নলিখিত আর্কিটেকচার চেষ্টা করুন:
3টি নিউরন সহ প্রথম লুকানো স্তর।
3টি নিউরন সহ দ্বিতীয় লুকানো স্তর।
২টি নিউরন সহ তৃতীয় লুকানো স্তর।
(উত্তরগুলি অনুশীলনের ঠিক নীচে প্রদর্শিত হবে।)
টাস্ক 1 এর উত্তরের জন্য প্লাস আইকনে ক্লিক করুন।
অ্যাক্টিভেশনটি লিনিয়ারে সেট করা হয়েছে, তাই এই মডেলটি কোনো অরৈখিকতা শিখতে পারে না। ক্ষতি খুব বেশি, এবং আমরা বলি যে মডেলটি ডেটা কমিয়েছে ৷
টাস্ক 2-এর উত্তরের জন্য প্লাস আইকনে ক্লিক করুন।
ননলাইনার অ্যাক্টিভেশন ফাংশন ননলাইনার মডেল শিখতে পারে। যাইহোক, 2টি নিউরন সহ একটি একক লুকানো স্তর এই ডেটা সেটের সমস্ত অরৈখিকতা প্রতিফলিত করতে পারে না, এবং এমনকি শব্দ ছাড়াই উচ্চ ক্ষতি হবে: এটি এখনও ডেটাকে কম করে । এই ব্যায়ামগুলি অনির্ধারিত, তাই কিছু রান একটি কার্যকর মডেল শিখবে না, অন্য রানগুলি বেশ ভাল কাজ করবে। সেরা মডেলের আকৃতি আপনার প্রত্যাশা নাও থাকতে পারে!
টাস্ক 3 এর উত্তরের জন্য প্লাস আইকনে ক্লিক করুন।
খেলার মাঠের অনির্ধারিত প্রকৃতি এই অনুশীলনের মাধ্যমে উজ্জ্বল হয়। 3টি নিউরন সহ একটি একক লুকানো স্তর ডেটা সেট (অনুপস্থিত শব্দ) মডেল করার জন্য যথেষ্ট, তবে সমস্ত রান একটি ভাল মডেলে একত্রিত হবে না।
3টি নিউরন যথেষ্ট কারণ XOR ফাংশনটি 3টি অর্ধ-প্লেন (ReLU অ্যাক্টিভেশন) এর সংমিশ্রণ হিসাবে প্রকাশ করা যেতে পারে। আপনি নিউরনের চিত্রগুলি দেখে এটি দেখতে পারেন, যা পৃথক নিউরনের আউটপুট দেখায়। 3টি নিউরন এবং ReLU অ্যাক্টিভেশন সহ একটি ভাল মডেলে, প্রায় উল্লম্ব রেখা সহ 1টি চিত্র থাকবে, X 1 ইতিবাচক (বা ঋণাত্মক; চিহ্নটি পরিবর্তন করা যেতে পারে), 1টি চিত্র প্রায় অনুভূমিক রেখা সহ, চিহ্ন সনাক্ত করবে X 2 , এবং 1 চিত্র একটি তির্যক রেখা সহ, তাদের মিথস্ক্রিয়া সনাক্ত করছে।
যাইহোক, সমস্ত রান একটি ভাল মডেলে একত্রিত হবে না। কিছু রান 2টি নিউরন সহ একটি মডেলের চেয়ে ভাল করবে না এবং আপনি এই ক্ষেত্রে ডুপ্লিকেট নিউরন দেখতে পাবেন।
টাস্ক 4 এর উত্তরের জন্য প্লাস আইকনে ক্লিক করুন।
3টি নিউরন সহ একটি একক লুকানো স্তর ডেটা মডেল করতে পারে, তবে কোনও অপ্রয়োজনীয়তা নেই, তাই অনেক রানে এটি কার্যকরভাবে একটি নিউরন হারাবে এবং একটি ভাল মডেল শিখবে না। 3টিরও বেশি নিউরন সহ একটি একক স্তরের অপ্রয়োজনীয়তা রয়েছে এবং এইভাবে একটি ভাল মডেলে রূপান্তরিত হওয়ার সম্ভাবনা বেশি।
আমরা যেমন দেখেছি, শুধুমাত্র 2টি নিউরন সহ একটি একক লুকানো স্তর ডেটা ভালভাবে মডেল করতে পারে না। আপনি যদি এটি চেষ্টা করেন, তাহলে আপনি দেখতে পাবেন যে আউটপুট স্তরের সমস্ত আইটেমগুলি শুধুমাত্র সেই দুটি নোডের লাইনগুলির দ্বারা গঠিত আকার হতে পারে। এই ক্ষেত্রে, একটি গভীর নেটওয়ার্ক একা প্রথম লুকানো স্তরের তুলনায় ডেটা সেটকে আরও ভাল মডেল করতে পারে: দ্বিতীয় স্তরের পৃথক নিউরনগুলি প্রথম স্তরে নিউরনগুলিকে একত্রিত করে উপরের-ডান চতুর্ভুজের মতো আরও জটিল আকারের মডেল করতে পারে। দ্বিতীয় লুকানো স্তরটি যোগ করার সময়ও শুধুমাত্র প্রথম লুকানো স্তরের তুলনায় ডেটা সেটটিকে আরও ভাল মডেল করতে পারে, এটি প্রথম স্তরে আরও নোড যুক্ত করার জন্য আরও বোধগম্য হতে পারে যাতে দ্বিতীয় স্তরটি তার আকারগুলি তৈরি করে সেই কিটের অংশ হতে দেয়। .
যাইহোক, প্রথম লুকানো স্তরে 1 নিউরন সহ একটি মডেল একটি ভাল মডেল শিখতে পারে না তা যতই গভীর হোক না কেন। এর কারণ হল প্রথম স্তরের আউটপুট শুধুমাত্র একটি মাত্রার সাথে পরিবর্তিত হয় (সাধারণত একটি তির্যক রেখা), যা এই ডেটা সেটটিকে ভালভাবে মডেল করার জন্য যথেষ্ট নয়। পরবর্তী স্তরগুলি এর জন্য ক্ষতিপূরণ দিতে পারে না, তা যতই জটিল হোক না কেন; ইনপুট ডেটার তথ্য অপূরণীয়ভাবে হারিয়ে গেছে।
যদি একটি ছোট নেটওয়ার্ক করার চেষ্টা করার পরিবর্তে, আমাদের কাছে প্রচুর নিউরন সহ অনেকগুলি স্তর থাকে, এইরকম একটি সাধারণ সমস্যার জন্য? ঠিক আছে, যেমনটি আমরা দেখেছি, প্রথম স্তরটিতে অনেকগুলি বিভিন্ন লাইনের ঢাল চেষ্টা করার ক্ষমতা থাকবে। এবং দ্বিতীয় স্তরটি পরবর্তী স্তরগুলির মধ্য দিয়ে নীচের দিকে প্রচুর এবং প্রচুর আকার সহ তাদের প্রচুর বিভিন্ন আকারে জমা করার ক্ষমতা থাকবে।
মডেলটিকে অনেকগুলি বিভিন্ন লুকানো নিউরনের মাধ্যমে অনেকগুলি বিভিন্ন আকার বিবেচনা করার অনুমতি দিয়ে, আপনি ট্রেনিং সেটের গোলমালের উপর সহজেই অতিরিক্ত ফিটিং শুরু করার জন্য মডেলটির জন্য পর্যাপ্ত জায়গা তৈরি করেছেন, এই জটিল আকারগুলিকে প্রশিক্ষণের ডেটার সাথে মেলে। সাধারণীকৃত স্থল সত্যের পরিবর্তে। এই উদাহরণে, সুনির্দিষ্ট ডেটা পয়েন্টের সাথে মেলে বড় মডেলের জটিল সীমানা থাকতে পারে। চরম ক্ষেত্রে, একটি বড় মডেল গোলমালের একটি পৃথক বিন্দুর চারপাশে একটি দ্বীপ শিখতে পারে, যাকে ডেটা মুখস্থ করা বলা হয়। মডেলটিকে এত বড় হওয়ার অনুমতি দিয়ে, আপনি দেখতে পাবেন যে এটি প্রায়শই সমস্যা সমাধানের জন্য যথেষ্ট নিউরন সহ সহজ মডেলের চেয়ে খারাপ কাজ করে।
[[["সহজে বোঝা যায়","easyToUnderstand","thumb-up"],["আমার সমস্যার সমাধান হয়েছে","solvedMyProblem","thumb-up"],["অন্যান্য","otherUp","thumb-up"]],[["এতে আমার প্রয়োজনীয় তথ্য নেই","missingTheInformationINeed","thumb-down"],["খুব জটিল / অনেক ধাপ","tooComplicatedTooManySteps","thumb-down"],["পুরনো","outOfDate","thumb-down"],["অনুবাদ সংক্রান্ত সমস্যা","translationIssue","thumb-down"],["নমুনা / কোড সংক্রান্ত সমস্যা","samplesCodeIssue","thumb-down"],["অন্যান্য","otherDown","thumb-down"]],["2024-08-22 UTC-তে শেষবার আপডেট করা হয়েছে।"],[[["This exercise explores training a neural network to learn nonlinearities and model data effectively."],["Increasing the number of neurons and using nonlinear activation functions like ReLU improves model performance."],["A single hidden layer with 3 neurons using ReLU can sufficiently model the data, but model quality varies between runs."],["Deeper and wider networks risk overfitting, potentially memorizing noise instead of generalizing patterns."],["While adding layers can improve model performance, redundant layers and neurons might lead to worse results compared to a simpler, well-structured model."]]],[]]