ट्रेनिंग न्यूरल नेटवर्क

बैकप्रोपेगेशन, न्यूरल नेटवर्क के लिए सबसे आम ट्रेनिंग एल्गोरिदम है. यह कई-लेयर न्यूरल नेटवर्क के लिए, ग्रेडिएंट डिसेंट को संभव बनाता है. TensorFlow, बैकप्रोपेगेशन को अपने-आप मैनेज करता है, इसलिए आपको एल्गोरिदम को अच्छी तरह से समझने की ज़रूरत नहीं है. यह सुविधा कैसे काम करती है, इसके बारे में जानने के लिए, यहां दी गई जानकारी देखें: बैकप्रोपेगेशन एल्गोरिदम की विज़ुअल एक्सप्लेनेशन. पहले दी गई जानकारी को स्क्रोल करते समय, इन बातों पर ध्यान दें:

  • ग्राफ़ में डेटा किस तरह से फ़्लो करता है.
  • हम डाइनैमिक प्रोग्रामिंग से, ग्राफ़ में बहुत सारे पाथ की गणना करने से किस तरह बचते हैं. यहां "डाइनैमिक प्रोग्रामिंग" का मतलब सिर्फ़ फ़ॉरवर्ड और बैकवर्ड पास के इंटरमीडिएट नतीजे रिकॉर्ड करना है.

ट्रेनिंग न्यूरल नेट्स

  • ग्रेडिएंट ज़रूरी हैं
    • अगर वह दूसरों से अलग है, तो हम उसके बारे में सीख सकते हैं
  • ग्रेडिएंट ज़रूरी हैं
    • अगर वह दूसरों से अलग है, तो हम उसके बारे में सीख सकते हैं
  • ग्रेडिएंट खत्म हो सकते हैं
    • हर अतिरिक्त लेयर, सिग्नल और शोर को सिलसिलेवार तरीके से कम कर सकती है
    • ReLus यहां काम का है
  • ग्रेडिएंट ज़रूरी हैं
    • अगर वह दूसरों से अलग है, तो हम उसके बारे में सीख सकते हैं
  • ग्रेडिएंट खत्म हो सकते हैं
    • हर अतिरिक्त लेयर, सिग्नल और शोर को सिलसिलेवार तरीके से कम कर सकती है
    • ReLus यहां काम का है
  • ग्रेडिएंट विस्फोट कर सकता है
    • सीखने की दर यहां अहम है
    • बैच नॉर्मलाइज़ेशन (उपयोगी नॉब) मदद कर सकता है
  • ग्रेडिएंट ज़रूरी हैं
    • अगर वह दूसरों से अलग है, तो हम उसके बारे में सीख सकते हैं
  • ग्रेडिएंट खत्म हो सकते हैं
    • हर अतिरिक्त लेयर, सिग्नल और शोर को सिलसिलेवार तरीके से कम कर सकती है
    • ReLus यहां काम का है
  • ग्रेडिएंट विस्फोट कर सकता है
    • सीखने की दर यहां अहम है
    • बैच नॉर्मलाइज़ेशन (उपयोगी नॉब) मदद कर सकता है
  • ReLu लेयर बंद हो सकती हैं
    • शांत रहें और सीखने की दर कम करें
  • हम चाहते हैं कि हमारी सुविधाओं में उचित पैमाने हों
    • करीब-करीब शून्य के बीच, [-1, 1] रेंज अक्सर अच्छी तरह काम करती है
    • यह ग्रेडिएंट वंश को इकट्ठा करने में मदद करता है; NaN ट्रैप से बचने में मदद करता है
    • बाहरी वैल्यू को शामिल न करने से भी मदद मिल सकती है
  • इसके लिए, कुछ स्टैंडर्ड तरीकों का इस्तेमाल किया जा सकता है:
    • रेखीय स्केलिंग
    • हार्ड कैप (क्लिपिंग) अधिकतम तक, मिनट
    • लॉग स्केलिंग
  • ड्रॉपआउट: नियमितीकरण का एक अन्य रूप, NN के लिए उपयोगी
  • यह विकल्प, नेटवर्क में एक ही ग्रेडिएंट चरण के लिए अचानक से "ड्रॉप आउट" करने पर काम करता है
    • यहां मॉडल जोड़ें
  • आप जितना ज़्यादा बाहर निकलेंगे, उतना ही बेहतर तरीके से रेगुलराइज़ेशन होगा
    • 0.0 = ड्रॉपआउट नियमितीकरण नहीं
    • 1.0 = सब कुछ छोड़ दें! कुछ नहीं सीखता
    • बीच के लेवल पर मिलने वाली वैल्यू ज़्यादा काम की हैं