संग्रह की मदद से व्यवस्थित रहें
अपनी प्राथमिकताओं के आधार पर, कॉन्टेंट को सेव करें और कैटगरी में बांटें.
बैकप्रोपेगेशन, न्यूरल नेटवर्क के लिए सबसे आम ट्रेनिंग एल्गोरिदम है.
यह कई-लेयर न्यूरल नेटवर्क के लिए, ग्रेडिएंट डिसेंट को संभव बनाता है.
TensorFlow, बैकप्रोपेगेशन को अपने-आप मैनेज करता है, इसलिए आपको एल्गोरिदम को अच्छी तरह से समझने की ज़रूरत नहीं है. यह सुविधा कैसे काम करती है, इसके बारे में जानने के लिए, यहां दी गई जानकारी देखें:
बैकप्रोपेगेशन एल्गोरिदम की विज़ुअल एक्सप्लेनेशन.
पहले दी गई जानकारी को स्क्रोल करते समय, इन बातों पर ध्यान दें:
ग्राफ़ में डेटा किस तरह से फ़्लो करता है.
हम डाइनैमिक प्रोग्रामिंग से, ग्राफ़ में बहुत सारे पाथ की गणना करने से किस तरह बचते हैं. यहां "डाइनैमिक प्रोग्रामिंग" का मतलब सिर्फ़ फ़ॉरवर्ड और बैकवर्ड पास के
इंटरमीडिएट नतीजे रिकॉर्ड करना है.
ट्रेनिंग न्यूरल नेट्स
बैकप्रॉप: आपको क्या जानना ज़रूरी है
ग्रेडिएंट ज़रूरी हैं
अगर वह दूसरों से अलग है, तो हम उसके बारे में सीख सकते हैं
बैकप्रॉप: आपको क्या जानना ज़रूरी है
ग्रेडिएंट ज़रूरी हैं
अगर वह दूसरों से अलग है, तो हम उसके बारे में सीख सकते हैं
ग्रेडिएंट खत्म हो सकते हैं
हर अतिरिक्त लेयर, सिग्नल और शोर को सिलसिलेवार तरीके से कम कर सकती है
ReLus यहां काम का है
बैकप्रॉप: आपको क्या जानना ज़रूरी है
ग्रेडिएंट ज़रूरी हैं
अगर वह दूसरों से अलग है, तो हम उसके बारे में सीख सकते हैं
ग्रेडिएंट खत्म हो सकते हैं
हर अतिरिक्त लेयर, सिग्नल और शोर को सिलसिलेवार तरीके से कम कर सकती है
ReLus यहां काम का है
ग्रेडिएंट विस्फोट कर सकता है
सीखने की दर यहां अहम है
बैच नॉर्मलाइज़ेशन (उपयोगी नॉब) मदद कर सकता है
बैकप्रॉप: आपको क्या जानना ज़रूरी है
ग्रेडिएंट ज़रूरी हैं
अगर वह दूसरों से अलग है, तो हम उसके बारे में सीख सकते हैं
ग्रेडिएंट खत्म हो सकते हैं
हर अतिरिक्त लेयर, सिग्नल और शोर को सिलसिलेवार तरीके से कम कर सकती है
ReLus यहां काम का है
ग्रेडिएंट विस्फोट कर सकता है
सीखने की दर यहां अहम है
बैच नॉर्मलाइज़ेशन (उपयोगी नॉब) मदद कर सकता है
ReLu लेयर बंद हो सकती हैं
शांत रहें और सीखने की दर कम करें
सुविधा की वैल्यू को सामान्य बनाना
हम चाहते हैं कि हमारी सुविधाओं में उचित पैमाने हों
करीब-करीब शून्य के बीच, [-1, 1] रेंज अक्सर अच्छी तरह काम करती है
यह ग्रेडिएंट वंश को इकट्ठा करने में मदद करता है; NaN ट्रैप से बचने में मदद करता है
बाहरी वैल्यू को शामिल न करने से भी मदद मिल सकती है
इसके लिए, कुछ स्टैंडर्ड तरीकों का इस्तेमाल किया जा सकता है:
रेखीय स्केलिंग
हार्ड कैप (क्लिपिंग) अधिकतम तक, मिनट
लॉग स्केलिंग
ड्रॉपआउट रेगुलराइज़ेशन
ड्रॉपआउट: नियमितीकरण का एक अन्य रूप, NN के लिए उपयोगी
यह विकल्प, नेटवर्क में एक ही ग्रेडिएंट चरण के लिए अचानक से "ड्रॉप आउट" करने पर काम करता है
यहां मॉडल जोड़ें
आप जितना ज़्यादा बाहर निकलेंगे, उतना ही बेहतर तरीके से रेगुलराइज़ेशन होगा
0.0 = ड्रॉपआउट नियमितीकरण नहीं
1.0 = सब कुछ छोड़ दें! कुछ नहीं सीखता
बीच के लेवल पर मिलने वाली वैल्यू ज़्यादा काम की हैं