इस पेज में, जनरेटिव एआई की ग्लॉसरी वाले शब्द मौजूद हैं. शब्दावली के सभी शब्दों के लिए, यहां क्लिक करें.
जवाब
ऑटो-रिग्रेसिव मॉडल
ऐसा model जो अपने पिछले अनुमानों के आधार पर, किसी अनुमान का अनुमान लगाता है. उदाहरण के लिए, ऑटो-रिग्रेसिव लैंग्वेज मॉडल, पहले बताए गए टोकन के आधार पर अगले टोकन का अनुमान लगाते हैं. ट्रांसफ़ॉर्मर पर आधारित बड़े लैंग्वेज मॉडल, ऑटो-रिग्रेसिव होते हैं.
वहीं दूसरी ओर, GAN पर आधारित इमेज मॉडल आम तौर पर ऑटो-रिग्रेसिव नहीं होते, क्योंकि वे एक ही फ़ॉरवर्ड-पास में इमेज जनरेट करते हैं और बार-बार ऐसा नहीं करते. हालांकि, कुछ इमेज जनरेट करने वाले मॉडल, ऑटो-रिग्रेसिव होते हैं, क्योंकि वे चरणों में इमेज जनरेट करते हैं.
C
सोच-विचार
प्रॉम्प्ट इंजीनियरिंग की एक ऐसी तकनीक जो बड़े लैंग्वेज मॉडल (एलएलएम) को इसकी वजह बताने के लिए, सिलसिलेवार तरीके से बताती है. उदाहरण के लिए, इस निर्देश पर ध्यान दें और दूसरे वाक्य पर खास ध्यान दें:
एक कार में 0 से 60 मील प्रति घंटे की रफ़्तार 7 सेकंड में चलने पर, एक ड्राइवर को कितने ग्राम फ़ोर्स का अनुभव होगा? जवाब में सभी ज़रूरी गणनाएं दिखाएं.
एलएलएम के जवाब शायद:
- फ़िज़िक्स के फ़ॉर्मूले को क्रम से दिखाएं और 0, 60, और 7 की वैल्यू को सही जगहों पर डालें.
- बताएं कि इन फ़ॉर्मूला को क्यों चुना गया और अलग-अलग वैरिएबल का क्या मतलब है.
अपने आइडिया पर ध्यान देने से, एलएलएम को सभी कैलकुलेशन करने के लिए मजबूर किया जाता है. इससे एलएलएम को ज़्यादा सटीक जवाब मिल सकता है. इसके अलावा, सोच-विचार करने की सुविधा से उपयोगकर्ता को एलएलएम के चरणों की जांच करने में मदद मिलती है, ताकि यह तय किया जा सके कि उसका जवाब सही है या नहीं.
D
सीधे तौर पर सूचना देना
ज़ीरो-शॉट प्रॉम्प्टिंग का समानार्थी शब्द.
डिस्टिलेशन
एक model (जिसे model कहा जाता है) के साइज़ को कम करके एक छोटे मॉडल (जिसे model भी कहा जाता है) का साइज़ छोटा करने की प्रोसेस होती है. इससे ओरिजनल मॉडल के अनुमान पूरी तरह से मिलते-जुलते होते हैं. डिस्टिलेशन आपके लिए बहुत काम का है, क्योंकि बड़े मॉडल (शिक्षक) की तुलना में छोटे मॉडल को दो मुख्य फ़ायदे मिलते हैं:
- तेज़ अनुमान का समय
- कम मेमोरी और ऊर्जा की खपत
हालांकि, आम तौर पर छात्र/छात्रा के अनुमान उतने अच्छे नहीं होते जितने शिक्षक के.
डिस्टिलेशन से, छात्र/छात्रा के मॉडल को ट्रेनिंग मिलती है, ताकि वह लॉस फ़ंक्शन को कम कर सके. यह छात्र/छात्रा और शिक्षक के मॉडल के अनुमानों के आउटपुट के अंतर के आधार पर अंतर को कम करता है.
डिस्टिलेशन की तुलना और कंट्रास्ट डिस्टिलेशन की मदद से, इन शब्दों का इस्तेमाल करें:
F
कुछ-एक शॉट
कोई ऐसा प्रॉम्प्ट जिसमें एक से ज़्यादा ("कुछ") उदाहरण हों. इससे पता चलता है कि बड़े लैंग्वेज मॉडल को कैसे जवाब देना चाहिए. उदाहरण के लिए, नीचे दिए गए लंबे प्रॉम्प्ट में दो उदाहरण शामिल हैं. इसमें क्वेरी का जवाब देने का तरीका बताने वाला एक बड़ा लैंग्वेज मॉडल दिखाया गया है.
एक प्रॉम्प्ट के हिस्से | ज़रूरी जानकारी |
---|---|
किसी खास देश की आधिकारिक मुद्रा क्या है? | आपको एलएलएम से किस सवाल का जवाब चाहिए. |
फ़्रांस: EUR | एक उदाहरण. |
यूनाइटेड किंगडम: GBP | एक अन्य उदाहरण. |
भारत: | असल क्वेरी. |
आम तौर पर, ज़ीरो-शॉट प्रॉम्प्ट और एक शॉट में सूचना देने की सुविधा के मुकाबले, कुछ ही शॉट में सीखने के ज़्यादा नतीजे मिलते हैं. हालांकि, कुछ ही शॉट के लिए प्रॉम्प्ट भेजने के लिए लंबे प्रॉम्प्ट की ज़रूरत होती है.
कुछ शॉट में निर्देश देना, कुछ-कुछ सीखने का एक तरीका है. यह प्रॉम्प्ट पर आधारित शिक्षा पर लागू होता है.
फ़ाइन ट्यूनिंग
दूसरा, टास्क के हिसाब से दिया जाने वाला ट्रेनिंग पास. इसे पहले से ट्रेनिंग दिए गए मॉडल पर परफ़ॉर्म किया जाता है, ताकि किसी खास इस्तेमाल के उदाहरण के लिए इसके पैरामीटर को बेहतर बनाया जा सके. उदाहरण के लिए, कुछ बड़े लैंग्वेज मॉडल के लिए ट्रेनिंग का पूरा सीक्वेंस इस तरह है:
- ट्रेनिंग शुरू करने से पहले: एक बड़े सामान्य डेटासेट पर बड़े भाषा मॉडल को ट्रेनिंग दें, जैसे कि अंग्रेज़ी भाषा के सभी Wikipedia पेज.
- फ़ाइन ट्यूनिंग: पहले से ट्रेनिंग वाले मॉडल को कोई खास टास्क करने के लिए ट्रेनिंग दें. जैसे, स्वास्थ्य से जुड़ी क्वेरी का जवाब देना. आम तौर पर, किसी खास टास्क पर फ़ोकस करने वाले सैकड़ों या हज़ारों उदाहरण शामिल होते हैं.
एक अन्य उदाहरण में, बड़े इमेज मॉडल के लिए ट्रेनिंग का पूरा क्रम इस तरह है:
- प्री-ट्रेनिंग: एक बड़े सामान्य इमेज डेटासेट पर एक बड़े इमेज मॉडल को ट्रेनिंग दें, जैसे कि 'विकिमीडिया कॉमन्स' में मौजूद सभी इमेज.
- फ़ाइन ट्यूनिंग: पहले से ट्रेनिंग वाले मॉडल को कोई खास टास्क करने के लिए ट्रेनिंग दें. जैसे, ओरका की इमेज जनरेट करना.
फ़ाइन-ट्यूनिंग के लिए नीचे दी गई रणनीतियों का कोई भी कॉम्बिनेशन लागू हो सकता है:
- पहले से ट्रेनिंग दिए गए मॉडल के सभी मौजूदा पैरामीटर में बदलाव करना. इसे कभी-कभी फ़ुल फ़ाइन-ट्यूनिंग भी कहा जाता है.
- पहले से ट्रेनिंग वाले मॉडल के सिर्फ़ कुछ मौजूदा पैरामीटर में बदलाव करता है (आम तौर पर, आउटपुट लेयर के सबसे करीब लेयर). अन्य मौजूदा पैरामीटर में कोई बदलाव नहीं करता है (आम तौर पर, लेयर इनपुट लेयर के आस-पास होती हैं). पैरामीटर की बेहतर ट्यूनिंग देखें.
- ज़्यादा लेयर जोड़ना, आम तौर पर आउटपुट लेयर के सबसे करीब मौजूद लेयर के ऊपर.
फ़ाइन-ट्यूनिंग, ट्रांसफ़र लर्निंग का एक तरीका है. इसलिए, फ़ाइन-ट्यूनिंग के लिए नुकसान पहुंचाने वाले किसी अलग फ़ंक्शन या मॉडल टाइप का इस्तेमाल किया जा सकता है, जो पहले से ट्रेनिंग वाले मॉडल को ट्रेनिंग देने वाले फ़ंक्शन से अलग होता है. उदाहरण के लिए, आपके पास पहले से ट्रेनिंग वाले बड़े इमेज मॉडल को इस तरह से बेहतर बनाने का विकल्प है कि रिग्रेशन मॉडल बनाया जा सके. इससे इनपुट इमेज में पक्षियों की संख्या दिखाई जाएगी.
इन शब्दों से तुलना करें और इनकी तुलना करें:
G
जनरेटिव एआई
औपचारिक परिभाषा वाला कोई उभरता हुआ फ़ील्ड. हालांकि, ज़्यादातर विशेषज्ञों का मानना है कि जनरेटिव एआई (AI) मॉडल, इस तरह का कॉन्टेंट बना ("जनरेट") कर सकते हैं.
- जटिल
- अनुकूल
- मूल
उदाहरण के लिए, जनरेटिव एआई (AI) मॉडल से मुश्किल निबंध या इमेज बनाई जा सकती हैं.
कुछ पुरानी टेक्नोलॉजी भी ओरिजनल और एक जैसा कॉन्टेंट जनरेट कर सकती हैं. इन टेक्नोलॉजी में, LSTM और RNN शामिल हैं. कुछ विशेषज्ञ इन पुरानी टेक्नोलॉजी को जनरेटिव एआई मानते हैं. हालांकि, कुछ का मानना है कि असल में जनरेटिव एआई को पहले की टेक्नोलॉजी के मुकाबले ज़्यादा मुश्किल आउटपुट की ज़रूरत होती है.
अनुमानित एमएल का कंट्रास्ट.
I
संदर्भ के हिसाब से सीखना
कुछ शॉट की सूचना का समानार्थी शब्द.
निर्देश ट्यूनिंग
यह फ़ाइन-ट्यूनिंग का एक तरीका है, जो दिए गए निर्देशों का पालन करने में, जनरेटिव एआई मॉडल की मदद करता है. निर्देश ट्यूनिंग में किसी मॉडल को निर्देशों की सीरीज़ की ट्रेनिंग दी जाती है. आम तौर पर, इसमें कई तरह के टास्क शामिल होते हैं. बाद में, निर्देशों से ट्यून करने वाला यह मॉडल कई तरह के कामों के लिए शून्य शॉट के लिए काम के जवाब जनरेट करता है.
इनसे तुलना करें और इनकी तुलना करें:
O
वन-शॉट प्रॉम्प्टिंग
ऐसा प्रॉम्प्ट जिसमें एक उदाहरण दिया गया हो. इससे पता चलता है कि बड़े भाषा के मॉडल को कैसे जवाब देना चाहिए. उदाहरण के लिए, इस प्रॉम्प्ट में एक बड़े लैंग्वेज मॉडल का उदाहरण दिया गया है कि इसे किसी क्वेरी का जवाब कैसे देना चाहिए.
एक प्रॉम्प्ट के हिस्से | ज़रूरी जानकारी |
---|---|
किसी खास देश की आधिकारिक मुद्रा क्या है? | आपको एलएलएम से किस सवाल का जवाब चाहिए. |
फ़्रांस: EUR | एक उदाहरण. |
भारत: | असल क्वेरी. |
एक बार में जवाब देने की सुविधा की तुलना इन शब्दों से करें:
P
पैरामीटर की बेहतर ट्यूनिंग
यह एक ऐसा सेट है जिसमें पूरी तरह फ़ाइन ट्यूनिंग करने के मुकाबले, पहले से ट्रेनिंग दिए गए लैंग्वेज मॉडल (पीएलएम), को फ़ाइन-ट्यून करने की तकनीकें हैं. पैरामीटर की मदद से, आम तौर पर कम पैरामीटर को बेहतर बनाया जाता है. हालांकि, आम तौर पर बड़ा लैंग्वेज मॉडल बनता है जो पूरी तरह से ट्यूनिंग से बने बड़े लैंग्वेज मॉडल की तरह ही अच्छा परफ़ॉर्म करता है.
इनसे तुलना करें और पैरामीटर की कम खपत करने पर बेहतर ट्यूनिंग करें:
पैरामीटर की कम खपत करने वाली ट्यूनिंग को पैरामीटर की बेहतर फ़ाइन-ट्यूनिंग भी कहा जाता है.
पीएलएम
पहले से ट्रेन किए गए भाषा मॉडल का छोटा नाम.
पहले से ट्रेनिंग वाला मॉडल
ऐसे मॉडल या मॉडल कॉम्पोनेंट जिन्हें पहले ही ट्रेनिंग दी जा चुकी है. जैसे, एम्बेड करने वाला वेक्टर. कभी-कभी, आपको पहले से ट्रेनिंग दिए गए एम्बेडिंग वेक्टर को न्यूरल नेटवर्क में फ़ीड करना होगा. अन्य बार, आपका मॉडल पहले से प्रशिक्षित एम्बेड करने पर निर्भर होने के बजाय, एम्बेड किए जाने वाले वेक्टर को खुद ही प्रशिक्षित करेगा.
पहले से प्रशिक्षित भाषा मॉडल शब्द का मतलब, बड़े भाषा के मॉडल से है, जिसे प्री-ट्रेनिंग से गुज़रना पड़ा.
प्री-ट्रेनिंग
बड़े डेटासेट पर किसी मॉडल की शुरुआती ट्रेनिंग. कुछ पहले से ट्रेनिंग दिए गए मॉडल, अनाड़ी जायंट होते हैं और आम तौर पर उन्हें अतिरिक्त ट्रेनिंग की मदद से और बेहतर बनाया जा सकता है. उदाहरण के लिए, मशीन लर्निंग विशेषज्ञ एक बड़े टेक्स्ट डेटासेट, जैसे कि विकिपीडिया में अंग्रेज़ी के सभी पेजों पर बड़े भाषा मॉडल को पहले से ट्रेनिंग दे सकते हैं. प्री-ट्रेनिंग के बाद, इनमें से किसी भी तकनीक का इस्तेमाल करके, मॉडल को और बेहतर बनाया जा सकता है:
प्रॉम्प्ट
किसी बड़े लैंग्वेज मॉडल में इनपुट के तौर पर डाला गया कोई भी टेक्स्ट, ताकि मॉडल को इस तरह तय किया जा सके कि वह एक खास तरह से काम करे. निर्देश, किसी वाक्यांश जितने छोटे या अपने हिसाब से लंबे हो सकते हैं (उदाहरण के लिए, किसी नॉवेल का पूरा टेक्स्ट). प्रॉम्प्ट कई कैटगरी में आते हैं. इनमें वे कैटगरी भी शामिल हैं जिन्हें इस टेबल में दिखाया गया है:
प्रॉम्प्ट की कैटगरी | उदाहरण | ज़रूरी जानकारी |
---|---|---|
सवाल | एक कबूतर कितनी तेज़ी से उड़ सकता है? | |
निर्देश | आर्बिट्रेज के बारे में एक मज़ेदार कविता लिखो. | एक प्रॉम्प्ट जो बड़े भाषा मॉडल से कुछ करने के लिए कहता है. |
उदाहरण | Markdown कोड का एचटीएमएल में अनुवाद करें. उदाहरण के लिए:
Markdown: * list item HTML: <ul> <li>list item</li> </ul> |
इस उदाहरण के प्रॉम्प्ट का पहला वाक्य एक निर्देश है. प्रॉम्प्ट का बचा हुआ उदाहरण ही उदाहरण है. |
भूमिका | बताएं कि फ़िज़िक्स की पीएचडी के लिए, मशीन लर्निंग की ट्रेनिंग में ग्रेडिएंट डिसेंट का इस्तेमाल क्यों किया जाता है. | वाक्य का पहला हिस्सा एक निर्देश है. वाक्यांश "फ़िज़िक्स में पीएचडी के लिए" भूमिका का हिस्सा है. |
मॉडल को पूरा करने के लिए कुछ हिस्सा डालें | यूनाइटेड किंगडम के प्रधानमंत्री यहां रहते हैं | कुछ इनपुट प्रॉम्प्ट या तो अचानक ही खत्म हो सकता है (जैसा कि इस उदाहरण में हुआ है) या अंडरस्कोर के साथ खत्म हो सकता है. |
जनरेटिव एआई मॉडल की मदद से किसी प्रॉम्प्ट का जवाब दिया जा सकता है. जैसे, टेक्स्ट, कोड, इमेज, एम्बेड करना, वीडियो...करीब कुछ भी.
प्रॉम्प्ट पर आधारित लर्निंग
कुछ मॉडल की सुविधा, जो उन्हें मनचाहे तरीके से टेक्स्ट इनपुट (निर्देश) के जवाब में, अपने व्यवहार को बदलने में मदद करती है. प्रॉम्प्ट पर आधारित लर्निंग मॉडल में, बड़ा लैंग्वेज मॉडल टेक्स्ट जनरेट करके प्रॉम्प्ट का जवाब देता है. उदाहरण के लिए, मान लें कि कोई उपयोगकर्ता यह प्रॉम्प्ट डालता है:
न्यूटन के गति के तीसरे नियम के बारे में विस्तार से बताएं.
प्रॉम्प्ट-आधारित लर्निंग में मदद करने वाले किसी मॉडल को, पिछले प्रॉम्प्ट का जवाब देने के लिए खास तौर पर ट्रेनिंग नहीं दी गई है. इसके बजाय, मॉडल को भौतिक विज्ञान के बारे में कई तथ्यों के बारे में पता है. (उम्मीद है कि) मददगार जवाब देने के लिए यह जानकारी काफ़ी है. अतिरिक्त मानवीय फ़ीडबैक ("यह जवाब बहुत जटिल था." या "प्रतिक्रिया क्या है?") कुछ प्रॉम्प्ट-आधारित लर्निंग सिस्टम को धीरे-धीरे अपने जवाबों को बेहतर बनाने में मदद करता है.
प्रॉम्प्ट डिज़ाइन
प्रॉम्प्ट इंजीनियरिंग का समानार्थी शब्द.
प्रॉम्प्ट इंजीनियरिंग
बड़े लैंग्वेज मॉडल से, मनचाहे जवाब पाने के लिए, प्रॉम्प्ट बनाने की कला. इंसान प्रॉम्प्ट की मदद करते हैं. अच्छी तरह से बनाए गए प्रॉम्प्ट लिखना, यह पक्का करने का एक ज़रूरी हिस्सा है कि किसी बड़े भाषा मॉडल से ऐसे जवाब मिलें जो काम के हों. प्रॉम्प्ट इंजीनियरिंग कई बातों पर निर्भर करती है, जैसे:
- इस डेटासेट का इस्तेमाल, बड़े लैंग्वेज मॉडल को प्री-ट्रेन करने और इसे फ़ाइन-ट्यून करने के लिए किया जाता है.
- तापमान और डिकोड करने वाले अन्य पैरामीटर, जिनका इस्तेमाल मॉडल, रिस्पॉन्स जनरेट करने के लिए करता है.
मददगार प्रॉम्प्ट लिखने के बारे में ज़्यादा जानने के लिए, प्रॉम्प्ट डिज़ाइन के बारे में जानकारी देखें.
प्रॉम्प्ट डिज़ाइन, प्रॉम्प्ट इंजीनियरिंग के लिए एक समानार्थी शब्द है.
प्रॉम्प्ट ट्यूनिंग
पैरामीटर को बेहतर तरीके से कॉन्फ़िगर करने का तरीका, जो उस "प्रीफ़िक्स" के बारे में सीखता है जिसे सिस्टम, असल प्रॉम्प्ट से पहले जोड़ता है.
प्रॉम्प्ट ट्यूनिंग का एक वैरिएशन हर लेयर में प्रीफ़िक्स को जोड़ना है. इसे प्रीफ़िक्स ट्यूनिंग भी कहा जाता है. इसके उलट, ज़्यादातर प्रॉम्प्ट ट्यूनिंग सिर्फ़ इनपुट लेयर में प्रीफ़िक्स जोड़ती है.
R
मानवीय फ़ीडबैक (आरएलएचएफ़) की मदद से बेहतर तरीके से लागू करने की सीख
मॉडल के जवाबों की क्वालिटी को बेहतर बनाने के लिए, रेटिंग देने वाले लोगों से मिले सुझाव/शिकायत/राय का इस्तेमाल करना. उदाहरण के लिए, आरएलएचएफ़ तकनीक, उपयोगकर्ताओं से किसी मॉडल के जवाब की क्वालिटी को रेटिंग देने के लिए कह सकती है. इसके लिए, 👍 या 🔒 इमोजी का इस्तेमाल किया जा सकता है. इसके बाद, सिस्टम इस सुझाव के आधार पर अपने आने वाले जवाबों में बदलाव कर सकता है.
नई भूमिका
अनुरोध का एक वैकल्पिक हिस्सा, जो जनरेटिव एआई मॉडल से मिले रिस्पॉन्स के लिए, टारगेट ऑडियंस की पहचान करता है. किसी भूमिका के संकेत के बिना, एक बड़े लैंग्वेज मॉडल से जवाब मिल जाता है, जो सवाल पूछने वाले व्यक्ति के लिए काम का हो सकता है या नहीं भी हो सकता है. रोल प्रॉम्प्ट का इस्तेमाल करके, एक बड़े लैंग्वेज मॉडल का इस्तेमाल करके किसी खास टारगेट ऑडियंस के लिए, ज़्यादा सही और ज़्यादा मददगार तरीके से जवाब दिया जा सकता है. उदाहरण के लिए, नीचे दिए गए संकेतों का भूमिका प्रॉम्प्ट वाला हिस्सा बोल्डफ़ेस में दिया गया है:
- अर्थशास्त्र में पीएचडी के लिए इस लेख की जानकारी दें.
- बताएं कि दस साल की उम्र के बच्चे के लिए ज्वार-भाटा कैसे काम करता है.
- 2008 की वित्तीय संकट के बारे में बताएं. इसी तरह से बोलें जैसे किसी छोटे बच्चे या गोल्डन रिट्रीवर से बात करते हों.
T
तापमान
हाइपर पैरामीटर, जो किसी मॉडल के आउटपुट की रैंडमनेस की डिग्री को कंट्रोल करता है. ज़्यादा तापमान से ज़्यादा आउटपुट मिलता है, जबकि कम तापमान से आउटपुट बिलकुल कम मिलता है.
सबसे सही तापमान चुनना, ऐप्लिकेशन और मॉडल से मिलने वाले आउटपुट से जुड़ी ज़रूरी प्रॉपर्टी पर निर्भर करता है. उदाहरण के लिए, क्रिएटिव आउटपुट जनरेट करने वाला ऐप्लिकेशन बनाते समय, हो सकता है कि आप तापमान को बढ़ाएं. इसके ठीक उलट, हो सकता है कि आप मॉडल बनाते समय तापमान कम करें, जो इमेज या टेक्स्ट की कैटगरी तय करता हो, ताकि मॉडल को ज़्यादा सटीक बनाया जा सके.
तापमान का इस्तेमाल अक्सर softmax के साथ किया जाता है.
Z
ज़ीरो-शॉट प्रॉम्प्ट
ऐसा प्रॉम्प्ट जिससे यह नहीं पता चलता हो कि बड़े लैंग्वेज मॉडल से आपको किस तरह का जवाब चाहिए. उदाहरण के लिए:
एक प्रॉम्प्ट के हिस्से | ज़रूरी जानकारी |
---|---|
किसी खास देश की आधिकारिक मुद्रा क्या है? | आपको एलएलएम से किस सवाल का जवाब चाहिए. |
भारत: | असल क्वेरी. |
बड़े भाषा मॉडल के लिए, इनमें से कोई भी तरीका अपनाया जा सकता है:
- रुपया
- INR
- ₹
- भारतीय रुपया
- रुपया
- भारतीय रुपया
सभी जवाब सही हैं. हालाँकि, हो सकता है कि आपको कोई ख़ास फ़ॉर्मैट पसंद आए.
ज़ीरो-शॉट प्रॉम्प्ट की तुलना नीचे दिए गए शब्दों से करें: