संग्रह की मदद से व्यवस्थित रहें
अपनी प्राथमिकताओं के आधार पर, कॉन्टेंट को सेव करें और कैटगरी में बांटें.
न्यूरल नेट इनिशलाइज़ेशन
इस एक्सरसाइज़ में XOR डेटा का फिर से इस्तेमाल किया जाता है, लेकिन यह दोहराया जाता है
न्यूरल नेट्स की ट्रेनिंग के बारे में बताया है और उन्हें शुरू करने की अहमियत के बारे में बताया है.
टास्क 1: बताए गए मॉडल को चार या पांच बार चलाएं. हर बार मुफ़्त में आज़माने से पहले,
किसी भी नए तरीके को अपने-आप शुरू करने के लिए, नेटवर्क को रीसेट करें बटन पर क्लिक करें.
(नेटवर्क को रीसेट करें बटन एक सर्कुलर रीसेट ऐरो है,
बाईं ओर मौजूद बटन पर क्लिक करें.) हर ट्रायल को कम से कम 500 चरणों तक चलने दें
पक्का किया जा सके कि वे एक-दूसरे से जुड़े हुए हों. हर मॉडल का आउटपुट किस आकार में इकट्ठा होता है?
नॉन-कॉन्वैक्स में शुरू करने की भूमिका के बारे में इससे क्या पता चलता है
ऑप्टिमाइज़ेशन?
टास्क 2: एक लेयर जोड़कर मॉडल को कुछ और जटिल बनाने की कोशिश करें
कुछ अतिरिक्त नोड हो सकते हैं. टास्क 1 को मुफ़्त में आज़माने की सुविधा दोहराएं. क्या यह होता है
नतीजों में अतिरिक्त स्थिरता जोड़ना चाहिए?
(जवाब व्यायाम के ठीक नीचे दिखाई देते हैं.)
टास्क 1 के जवाब के लिए प्लस आइकॉन पर क्लिक करें.
सीखे गए मॉडल की हर दौड़ पर अलग-अलग आकार थे. द कन्वर्ज्ड
टेस्ट लॉस में करीब दो गुना से ज़्यादा का अंतर देखने को मिला.
टास्क 2 को जवाब देने के लिए प्लस आइकॉन पर क्लिक करें.
लेयर और अतिरिक्त नोड जोड़ने पर, ऐसे नतीजे मिले जिन्हें दोहराया जा सकता है.
हर बार रन करने पर, नतीजा मिलने वाला मॉडल करीब-करीब एक जैसा दिखता था. इसके अलावा,
एक ही टेस्ट में हुई कमी की वजह से, दौड़ने के दौरान ज़्यादा अंतर नहीं दिखा.
[[["समझने में आसान है","easyToUnderstand","thumb-up"],["मेरी समस्या हल हो गई","solvedMyProblem","thumb-up"],["अन्य","otherUp","thumb-up"]],[["वह जानकारी मौजूद नहीं है जो मुझे चाहिए","missingTheInformationINeed","thumb-down"],["बहुत मुश्किल है / बहुत सारे चरण हैं","tooComplicatedTooManySteps","thumb-down"],["पुराना","outOfDate","thumb-down"],["अनुवाद से जुड़ी समस्या","translationIssue","thumb-down"],["सैंपल / कोड से जुड़ी समस्या","samplesCodeIssue","thumb-down"],["अन्य","otherDown","thumb-down"]],["आखिरी बार 2024-08-22 (UTC) को अपडेट किया गया."],[[["Neural networks with the same architecture and data can converge to different solutions due to random initialization, highlighting its role in non-convex optimization."],["Increasing the complexity of a neural network by adding layers and nodes can improve the stability and repeatability of training results, leading to more consistent model performance."],["Initialization significantly impacts the final model and the variance in test loss, especially in simpler network structures."],["While simpler networks can exhibit diverse solutions and varying losses, more complex models demonstrate increased stability and repeatable convergence."]]],[]]