इस पेज पर, जनरेटिव एआई की ग्लॉसरी में शामिल शब्दों की जानकारी दी गई है. ग्लॉसरी में मौजूद सभी शब्दों के लिए, यहां क्लिक करें.
A
अपने-आप होने वाला आकलन
मॉडल के आउटपुट की क्वालिटी का आकलन करने के लिए, सॉफ़्टवेयर का इस्तेमाल करना.
जब मॉडल का आउटपुट आसान होता है, तो कोई स्क्रिप्ट या प्रोग्राम, मॉडल के आउटपुट की तुलना गोल्डन रिस्पॉन्स से कर सकता है. इस तरह के अपने-आप होने वाले आकलन को कभी-कभी प्रोग्रामैटिक आकलन भी कहा जाता है. प्रोग्राम के आधार पर आकलन करने के लिए, ROUGE या BLEU जैसी मेट्रिक का इस्तेमाल अक्सर किया जाता है.
जब मॉडल का आउटपुट जटिल होता है या उसमें कोई एक सही जवाब नहीं होता, तो ऑटोरेटर नाम का एक अलग एमएल प्रोग्राम, अपने-आप आकलन करता है.
मैन्युअल तरीके से किए गए आकलन के साथ तुलना करें.
ऑटोरेटर का आकलन
जनरेटिव एआई मॉडल के आउटपुट की क्वालिटी का आकलन करने के लिए, एक हाइब्रिड मशीन. इसमें मैन्युअल तरीके से की गई समीक्षा और ऑटोमेटेड तरीके से की गई समीक्षा, दोनों का इस्तेमाल किया जाता है. ऑटोरेटर एक ऐसा एमएल मॉडल है जिसे मैन्युअल तरीके से किए गए आकलन से मिले डेटा के आधार पर ट्रेन किया जाता है. आम तौर पर, अपने-आप रेटिंग देने वाला सिस्टम, कॉन्टेंट की समीक्षा करने वाले व्यक्ति की नकल करता है.पहले से बने ऑटोरेटर उपलब्ध हैं, लेकिन सबसे अच्छे ऑटोरेटर, खास तौर पर उस टास्क के हिसाब से बनाए जाते हैं जिसका आकलन किया जा रहा है.
ऑटो-रिग्रेसिव मॉडल
ऐसा मॉडल जो अपने पिछले अनुमानों के आधार पर अनुमान लगाता है. उदाहरण के लिए, अपने-आप कम होने वाले भाषा मॉडल, पहले से अनुमानित टोकन के आधार पर अगले टोकन का अनुमान लगाते हैं. ट्रांसफ़ॉर्मर पर आधारित सभी लार्ज लैंग्वेज मॉडल, अपने-आप कम होते जाते हैं.
इसके उलट, GAN पर आधारित इमेज मॉडल आम तौर पर अपने-आप रिग्रेसिव नहीं होते, क्योंकि ये एक फ़ॉरवर्ड-पास में इमेज जनरेट करते हैं, न कि चरणों में बार-बार. हालांकि, इमेज जनरेट करने वाले कुछ मॉडल अपने-आप रिग्रेसिव होते हैं, क्योंकि ये चरणों में इमेज जनरेट करते हैं.
C
सिलसिलेवार तरीके से दिया जाने वाला प्रॉम्प्ट
प्रॉम्प्ट इंजीनियरिंग तकनीक, लार्ज लैंग्वेज मॉडल (एलएलएम) को, अपनी वजह को सिलसिलेवार तरीके से बताने के लिए बढ़ावा देती है. उदाहरण के लिए, इस प्रॉम्प्ट पर ध्यान दें और दूसरे वाक्य पर खास ध्यान दें:
7 सेकंड में 0 से 60 मील प्रति घंटे की रफ़्तार तक पहुंचने वाली कार में, ड्राइवर को कितने जी फ़ोर्स का अनुभव होगा? जवाब में, काम की सभी गणनाएं दिखाएं.
एलएलएम का जवाब इस तरह का हो सकता है:
- फ़िज़िक्स के फ़ॉर्मूला का क्रम दिखाएं. इसके लिए, सही जगहों पर 0, 60, और 7 वैल्यू डालें.
- बताएं कि उसने वे फ़ॉर्मूला क्यों चुने और अलग-अलग वैरिएबल का क्या मतलब है.
सिलसिलेवार तरीके से सवाल पूछने पर, एलएलएम को सभी गणनाएं करनी पड़ती हैं. इससे, ज़्यादा सटीक जवाब मिल सकता है. इसके अलावा, सिलसिलेवार तरीके से सवाल पूछने की सुविधा की मदद से, उपयोगकर्ता एलएलएम के चरणों की जांच कर सकता है. इससे यह पता चलता है कि जवाब सही है या नहीं.
चैट
आम तौर पर, लार्ज लैंग्वेज मॉडल जैसे एमएल सिस्टम के साथ हुई बातचीत का कॉन्टेंट. चैट में पिछली बातचीत (आपने क्या टाइप किया और लार्ज लैंग्वेज मॉडल ने कैसे जवाब दिया) से, चैट के अगले हिस्सों के लिए कॉन्टेक्स्ट बन जाता है.
चैटबॉट, लार्ज लैंग्वेज मॉडल का एक ऐप्लिकेशन है.
संदर्भ के हिसाब से भाषा को एम्बेड करना
ऐसा एम्बेड जो शब्दों और वाक्यांशों को उसी तरह "समझता" है जिस तरह कोई व्यक्ति समझता है. कॉन्टेक्स्ट के हिसाब से भाषा के एम्बेडमेंट, सिंटैक्स, सेमेटिक्स, और कॉन्टेक्स्ट को समझ सकते हैं.
उदाहरण के लिए, अंग्रेज़ी के शब्द cow के एम्बेड देखें. word2vec जैसे पुराने एम्बेडिंग, अंग्रेज़ी के शब्दों को इस तरह दिखा सकते हैं कि एम्बेडिंग स्पेस में गाय से बैल की दूरी, भेड़ (मादा भेड़) से बकरा (नर भेड़) या महिला से पुरुष की दूरी जैसी हो. कॉन्टेक्स्ट के हिसाब से भाषा के एम्बेडमेंट, एक कदम आगे जाकर यह पहचान सकते हैं कि अंग्रेज़ी बोलने वाले लोग कभी-कभी गाय या बैल के लिए, गाय शब्द का इस्तेमाल करते हैं.
कॉन्टेक्स्ट विंडो
किसी दिए गए प्रॉम्प्ट में, मॉडल कितने टोकन प्रोसेस कर सकता है. कॉन्टेक्स्ट विंडो जितनी बड़ी होगी, मॉडल उतनी ही ज़्यादा जानकारी का इस्तेमाल करके प्रॉम्प्ट के लिए बेहतर और एक जैसे जवाब दे पाएगा.
D
सीधे तौर पर प्रॉम्प्ट करना
ज़ीरो-शॉट प्रॉम्प्ट का समानार्थी शब्द.
आसवन
किसी मॉडल (जिसे टीचर कहा जाता है) के साइज़ को कम करके, उसे एक छोटे मॉडल (जिसे स्टूडेंट कहा जाता है) में बदलने की प्रोसेस. यह मॉडल, ओरिजनल मॉडल के अनुमान को ज़्यादा से ज़्यादा सटीक तरीके से लागू करता है. डिस्टिलेशन का इस्तेमाल करना इसलिए फ़ायदेमंद है, क्योंकि छोटे मॉडल के मुकाबले बड़े मॉडल (शिक्षक) के दो मुख्य फ़ायदे होते हैं:
- अनुमान लगाने में कम समय लगता है
- मेमोरी और ऊर्जा की खपत कम होना
हालांकि, आम तौर पर छात्र-छात्राओं के अनुमान, शिक्षक के अनुमान के मुकाबले उतने अच्छे नहीं होते.
डिस्टिलेशन, स्टूडेंट मॉडल को ट्रेन करता है, ताकि लॉस फ़ंक्शन को कम किया जा सके. यह फ़ंक्शन, स्टूडेंट और टीचर मॉडल के अनुमान के आउटपुट के बीच के अंतर के आधार पर तय होता है.
इन शब्दों के साथ आसवन की तुलना करें:
ज़्यादा जानकारी के लिए, मशीन लर्निंग क्रैश कोर्स में एलएलएम: बेहतर बनाना, डिस्टिलेशन, और प्रॉम्प्ट इंजीनियरिंग देखें.
E
evals
इसका इस्तेमाल मुख्य रूप से एलएलएम के आकलन के लिए किया जाता है. ज़्यादा जानकारी के लिए, evals किसी भी तरह के इवैल्यूएशन का छोटा नाम है.
आकलन
किसी मॉडल की क्वालिटी को मेज़र करने या अलग-अलग मॉडल की तुलना करने की प्रोसेस.
सुपरवाइज़्ड मशीन लर्निंग मॉडल का आकलन करने के लिए, आम तौर पर पुष्टि करने वाले सेट और टेस्ट सेट के आधार पर इसका आकलन किया जाता है. एलएलएम का आकलन करने के लिए, आम तौर पर क्वालिटी और सुरक्षा से जुड़े बड़े आकलन किए जाते हैं.
F
तथ्यों का सही होना
मशीन लर्निंग की दुनिया में, ऐसी प्रॉपर्टी जो किसी ऐसे मॉडल के बारे में बताती है जिसका आउटपुट असल दुनिया पर आधारित होता है. तथ्यों के आधार पर जानकारी देना एक मेट्रिक नहीं, बल्कि एक कॉन्सेप्ट है. उदाहरण के लिए, मान लें कि आपने लार्ज लैंग्वेज मॉडल को यह प्रॉम्प्ट भेजा है:
टेबल सॉल्ट का केमिकल फ़ॉर्मूला क्या है?
तथ्यों को ऑप्टिमाइज़ करने वाला मॉडल इस तरह जवाब देगा:
NaCl
यह मानना आसान है कि सभी मॉडल, तथ्यों पर आधारित होने चाहिए. हालांकि, कुछ प्रॉम्प्ट की वजह से जनरेटिव एआई मॉडल, तथ्यों के बजाय क्रिएटिविटी को ऑप्टिमाइज़ कर सकता है. जैसे:
मुझे अंतरिक्ष यात्री और कैटरपिलर के बारे में कोई लिमरिक सुनाओ.
ऐसा हो सकता है कि लिमरिक में दी गई जानकारी असल न हो.
ज़मीन से जुड़े होने के साथ कंट्रास्ट करें.
उदाहरण के साथ डाले गए प्रॉम्प्ट
ऐसा प्रॉम्प्ट जिसमें एक से ज़्यादा (कुछ) उदाहरण शामिल हों. इनसे पता चलता हो कि लार्ज लैंग्वेज मॉडल को कैसे जवाब देना चाहिए. उदाहरण के लिए, यहां दिए गए लंबे प्रॉम्प्ट में दो उदाहरण दिए गए हैं. इनसे पता चलता है कि लार्ज लैंग्वेज मॉडल को क्वेरी का जवाब देने का तरीका कैसे बताया जाता है.
एक प्रॉम्प्ट के हिस्से | नोट |
---|---|
चुने गए देश की आधिकारिक मुद्रा क्या है? | वह सवाल जिसका जवाब आपको एलएलएम से चाहिए. |
फ़्रांस: यूरो | एक उदाहरण. |
यूनाइटेड किंगडम: पाउंड स्टर्लिंग | एक और उदाहरण. |
भारत: | असल क्वेरी. |
आम तौर पर, फ़्यू-शॉट प्रॉम्प्ट (उदाहरण के साथ डाले गए प्रॉम्प्ट), ज़ीरो-शॉट प्रॉम्प्ट (बिना किसी उदाहरण के डाले गए प्रॉम्प्ट) और वन-शॉट प्रॉम्प्ट (एक उदाहरण के साथ डाले गए प्रॉम्प्ट) के मुकाबले बेहतर नतीजे देता है. हालांकि, फ़्यू-शॉट प्रॉम्प्ट के लिए, लंबे प्रॉम्प्ट की ज़रूरत होती है.
उदाहरण के साथ डाले गए प्रॉम्प्ट, फ़्यू-शॉट लर्निंग का एक टाइप है. इसे प्रॉम्प्ट पर आधारित लर्निंग पर लागू किया जाता है.
ज़्यादा जानकारी के लिए, मशीन लर्निंग क्रैश कोर्स में प्रॉम्प्ट को बेहतर बनाने की प्रोसेस देखें.
फ़ाइन-ट्यूनिंग
पहले से ट्रेन किए गए मॉडल पर, टास्क के हिसाब से दूसरा ट्रेनिंग पास किया जाता है. इससे, किसी खास इस्तेमाल के उदाहरण के लिए, मॉडल के पैरामीटर को बेहतर बनाया जा सकता है. उदाहरण के लिए, कुछ बड़े लैंग्वेज मॉडल के लिए, ट्रेनिंग का पूरा क्रम इस तरह है:
- पहले से ट्रेनिंग: किसी बड़े लैंग्वेज मॉडल को बड़े सामान्य डेटासेट पर ट्रेन करें. जैसे, अंग्रेज़ी भाषा के सभी Wikipedia पेज.
- बेहतर बनाना: पहले से ट्रेन किए गए मॉडल को खास टास्क पूरा करने के लिए ट्रेन करना. जैसे, मेडिकल क्वेरी का जवाब देना. आम तौर पर, बेहतर बनाने की प्रोसेस में किसी खास टास्क पर फ़ोकस करने वाले सैकड़ों या हज़ारों उदाहरण शामिल होते हैं.
एक और उदाहरण के तौर पर, बड़ी इमेज के मॉडल के लिए ट्रेनिंग का पूरा क्रम इस तरह है:
- पहले से ट्रेनिंग: बड़े इमेज मॉडल को सामान्य इमेज के बड़े डेटासेट पर ट्रेन करें. जैसे, Wikimedia Commons में मौजूद सभी इमेज.
- बेहतर बनाना: पहले से ट्रेन किए गए मॉडल को खास टास्क पूरा करने के लिए ट्रेन करें. जैसे, ऑर्का की इमेज जनरेट करना.
रणनीतियों को बेहतर बनाने के लिए, इनमें से किसी भी रणनीति का इस्तेमाल किया जा सकता है:
- पहले से ट्रेन किए गए मॉडल के मौजूदा पैरामीटर में सभी बदलाव करना. इसे कभी-कभी पूरी तरह से फ़ाइन-ट्यून करना भी कहा जाता है.
- पहले से ट्रेन किए गए मॉडल के मौजूदा पैरामीटर में से सिर्फ़ कुछ पैरामीटर में बदलाव करना (आम तौर पर, आउटपुट लेयर के सबसे करीब वाली लेयर), जबकि अन्य मौजूदा पैरामीटर में कोई बदलाव न करना (आम तौर पर, इनपुट लेयर के सबसे करीब वाली लेयर). पैरामीटर-इफ़िशिएंट ट्यूनिंग देखें.
- ज़्यादा लेयर जोड़ना. आम तौर पर, ये लेयर आउटपुट लेयर के सबसे करीब मौजूद मौजूदा लेयर के ऊपर जोड़ी जाती हैं.
फ़ाइन-ट्यूनिंग, ट्रांसफ़र लर्निंग का एक तरीका है. इसलिए, फ़ाइन-ट्यूनिंग में, पहले से ट्रेन किए गए मॉडल को ट्रेन करने के लिए इस्तेमाल किए गए लॉस फ़ंक्शन या मॉडल टाइप के बजाय, किसी दूसरे लॉस फ़ंक्शन या मॉडल टाइप का इस्तेमाल किया जा सकता है. उदाहरण के लिए, पहले से ट्रेन किए गए बड़े इमेज मॉडल को बेहतर बनाकर, ऐसा रिग्रेशन मॉडल बनाया जा सकता है जो किसी इनपुट इमेज में पक्षियों की संख्या बताता है.
यहां दिए गए शब्दों के साथ, फ़ाइन-ट्यूनिंग की तुलना करें:
ज़्यादा जानकारी के लिए, मशीन लर्निंग क्रैश कोर्स में बेहतर बनाना देखें.
सफलता का अनुपात
एमएल मॉडल के जनरेट किए गए टेक्स्ट का आकलन करने वाली मेट्रिक. सफलता का अनुपात, जनरेट किए गए "सफल" टेक्स्ट आउटपुट की संख्या को जनरेट किए गए टेक्स्ट आउटपुट की कुल संख्या से भाग देने पर मिलता है. उदाहरण के लिए, अगर किसी बड़े लैंग्वेज मॉडल ने कोड के 10 ब्लॉक जनरेट किए, जिनमें से पांच सही थे, तो सही ब्लॉक का अनुपात 50% होगा.
हालांकि, आंकड़ों के लिए फ़्रैक्शन ऑफ़ सक्सेस का इस्तेमाल आम तौर पर किया जाता है, लेकिन एमएल में यह मेट्रिक मुख्य रूप से ऐसे टास्क को मेज़र करने के लिए काम की होती है जिनकी पुष्टि की जा सकती है. जैसे, कोड जनरेशन या गणित से जुड़ी समस्याएं.
G
Gemini
यह नेटवर्क, Google के सबसे बेहतर एआई से बना है. इस नेटवर्क में ये चीज़ें शामिल हैं:
- Gemini के अलग-अलग मॉडल.
- Gemini मॉडल के लिए, इंटरैक्टिव बातचीत वाला इंटरफ़ेस. उपयोगकर्ता प्रॉम्प्ट टाइप करते हैं और Gemini उन प्रॉम्प्ट का जवाब देता है.
- Gemini के अलग-अलग एपीआई.
- Gemini मॉडल पर आधारित कारोबार के लिए उपलब्ध अलग-अलग प्रॉडक्ट. उदाहरण के लिए, Gemini for Google Cloud.
Gemini मॉडल
Google के सबसे आधुनिक ट्रांसफ़ॉर्मर-आधारित मल्टीमोडल मॉडल. Gemini मॉडल को खास तौर पर, एजेंट के साथ इंटिग्रेट करने के लिए डिज़ाइन किया गया है.
उपयोगकर्ता, Gemini मॉडल के साथ कई तरीकों से इंटरैक्ट कर सकते हैं. जैसे, इंटरैक्टिव डायलॉग इंटरफ़ेस और SDKs की मदद से.
जनरेट किया गया टेक्स्ट
आम तौर पर, वह टेक्स्ट जो एमएल मॉडल से मिलता है. लार्ज लैंग्वेज मॉडल का आकलन करते समय, कुछ मेट्रिक जनरेट किए गए टेक्स्ट की तुलना रेफ़रंस टेक्स्ट से करती हैं. उदाहरण के लिए, मान लें कि आपको यह पता करना है कि एमएल मॉडल, फ़्रेंच से डच में कितनी असरदार तरीके से अनुवाद करता है. इस मामले में:
- जनरेट किया गया टेक्स्ट, डच भाषा में अनुवाद है, जो एमएल मॉडल से मिलता है.
- रेफ़रंस टेक्स्ट, डच भाषा में अनुवाद होता है. इसे कोई अनुवादक या सॉफ़्टवेयर बनाता है.
ध्यान दें कि आकलन की कुछ रणनीतियों में रेफ़रंस टेक्स्ट शामिल नहीं होता.
जनरेटिव एआई
यह एक ऐसा फ़ील्ड है जो बदलावों को बढ़ावा देता है. हालांकि, इसकी कोई आधिकारिक परिभाषा नहीं है. हालांकि, ज़्यादातर विशेषज्ञ इस बात से सहमत हैं कि जनरेटिव एआई मॉडल, ऐसा कॉन्टेंट बना सकते हैं ("जनरेट" कर सकते हैं) जो इन सभी चीज़ों के मुताबिक हो:
- जटिल
- एक-दूसरे से जुड़े हों
- मूल
उदाहरण के लिए, जनरेटिव एआई मॉडल बेहतरीन तरह के लेख या इमेज बना सकता है.
LSTMs और RNNs जैसी कुछ पुरानी टेक्नोलॉजी से भी ओरिजनल और एक जैसा कॉन्टेंट जनरेट किया जा सकता है. कुछ विशेषज्ञ इन पुरानी टेक्नोलॉजी को जनरेटिव एआई मानते हैं, जबकि कुछ का मानना है कि असल जनरेटिव एआई के लिए, ज़्यादा जटिल आउटपुट की ज़रूरत होती है, जो इन पुरानी टेक्नोलॉजी से नहीं मिल सकता.
अनुमानित एमएल के साथ तुलना करें.
गोल्डन रिस्पॉन्स
ऐसा जवाब जो सही हो. उदाहरण के लिए, यह प्रॉम्प्ट दिया गया है:
2 + 2
उम्मीद है कि आपका जवाब इस तरह का होगा:
4
H
मानवीय आकलन
यह एक ऐसी प्रोसेस है जिसमें लोग, एमएल मॉडल के आउटपुट की क्वालिटी का आकलन करते हैं. उदाहरण के लिए, दो भाषाओं के जानकार लोग, अनुवाद करने वाले एमएल मॉडल की क्वालिटी का आकलन करते हैं. मानवीय आकलन, खास तौर पर उन मॉडल का आकलन करने के लिए फ़ायदेमंद होता है जिनके लिए कोई एक सही जवाब नहीं होता.
अपने-आप होने वाले आकलन और ऑटोरेटर से होने वाले आकलन के साथ तुलना करें.
मानवीय हस्तक्षेप (एचआईटीएल)
ऐसा मुहावरा जिसकी परिभाषा साफ़ तौर पर नहीं दी गई है. इसका मतलब इनमें से कोई एक हो सकता है:
- जनरेटिव एआई के आउटपुट को गंभीरता से या संदेह के साथ देखने की नीति. उदाहरण के लिए, एमएल की इस ग्लॉसरी को लिखने वाले लोग, लार्ज लैंग्वेज मॉडल की क्षमताओं से हैरान हैं. हालांकि, वे लार्ज लैंग्वेज मॉडल की ग़लतियों को भी ध्यान में रखते हैं.
- यह एक रणनीति या सिस्टम है, जिससे यह पक्का किया जा सकता है कि लोग किसी मॉडल के व्यवहार को बेहतर बनाने, उसका आकलन करने, और उसे बेहतर बनाने में मदद करते हैं. किसी व्यक्ति को इस प्रोसेस में शामिल रखने से, एआई को मशीन इंटेलिजेंस और मानव इंटेलिजेंस, दोनों से फ़ायदा मिलता है. उदाहरण के लिए, ऐसा सिस्टम जिसमें एआई कोड जनरेट करता है और सॉफ़्टवेयर इंजीनियर उसकी समीक्षा करते हैं, उसे मानव-इन-द-लूप सिस्टम कहा जाता है.
I
कॉन्टेक्स्ट के हिसाब से सीखना
फ़्यू-शॉट प्रॉम्प्ट (उदाहरण के साथ डाले गए प्रॉम्प्ट) का समानार्थी शब्द.
निर्देश ट्यूनिंग
बेहतर बनाने का एक तरीका, जो जनरेटिव एआई मॉडल के निर्देशों को फ़ॉलो करने की क्षमता को बेहतर बनाता है. निर्देश ट्यूनिंग में, निर्देशों के प्रॉम्प्ट की एक सीरीज़ पर मॉडल को ट्रेनिंग दी जाती है. आम तौर पर, इसमें कई तरह के टास्क शामिल होते हैं. इसके बाद, निर्देशों के हिसाब से ट्यून किया गया मॉडल, कई तरह के टास्क के लिए ज़ीरो-शॉट प्रॉम्प्ट के लिए काम के जवाब जनरेट करता है.
इनके साथ तुलना करें:
L
LLM
लार्ज लैंग्वेज मॉडल का छोटा नाम.
एलएलएम के आकलन (evals)
लार्ज लैंग्वेज मॉडल (एलएलएम) की परफ़ॉर्मेंस का आकलन करने के लिए, मेट्रिक और मानदंडों का सेट. LLM के आकलन के बारे में खास जानकारी:
- शोधकर्ताओं को उन क्षेत्रों की पहचान करने में मदद करना जहां एलएलएम में सुधार की ज़रूरत है.
- ये अलग-अलग एलएलएम की तुलना करने और किसी खास टास्क के लिए सबसे बेहतर एलएलएम की पहचान करने में मदद करते हैं.
- यह पक्का करने में मदद मिलती है कि एलएलएम का इस्तेमाल सुरक्षित और सही तरीके से किया जा रहा है.
ज़्यादा जानकारी के लिए, मशीन लर्निंग क्रैश कोर्स में लार्ज लैंग्वेज मॉडल (एलएलएम) देखें.
LoRA
कम रैंक के लिए अडैप्ट करने की सुविधा का छोटा नाम.
कम रैंक वाला अडैप्टैबिलिटी (LoRA)
बेहतर बनाने के लिए, पैरामीटर के हिसाब से बेहतर तकनीक. यह मॉडल के पहले से ट्रेन किए गए वज़न को "फ़्रीज़" कर देती है, ताकि उनमें बदलाव न किया जा सके. इसके बाद, मॉडल में ट्रेन किए जा सकने वाले वज़न का एक छोटा सेट डालती है. ट्रेन किए जा सकने वाले वेट का यह सेट, बेस मॉडल से काफ़ी छोटा होता है. इसलिए, इसे ट्रेन करने में काफ़ी कम समय लगता है. इसे "अपडेट मैट्रिक" भी कहा जाता है.
LoRA से ये फ़ायदे मिलते हैं:
- इससे उस डोमेन के लिए मॉडल के अनुमान की क्वालिटी बेहतर होती है जहां फ़ाइन-ट्यूनिंग लागू की जाती है.
- यह उन तकनीकों की तुलना में तेज़ी से फ़ाइन-ट्यून करता है जिनमें मॉडल के सभी पैरामीटर को फ़ाइन-ट्यून करना पड़ता है.
- एक ही बेस मॉडल को शेयर करने वाले कई खास मॉडल को एक साथ दिखाने की सुविधा चालू करके, अनुमान लगाने के लिए कंप्यूटिंग की लागत कम करता है.
M
मशीन से अनुवाद
टेक्स्ट को एक भाषा से दूसरी भाषा में बदलने के लिए, सॉफ़्टवेयर (आम तौर पर, मशीन लर्निंग मॉडल) का इस्तेमाल करना. उदाहरण के लिए, अंग्रेज़ी से जैपनीज़ में.
k पर औसत सटीक अनुमान (mAP@k)
पुष्टि करने वाले डेटासेट में, सभी k पर औसत सटीक नतीजे के आंकड़ों का औसत. k पर औसत सटीकता का एक इस्तेमाल, सुझाव देने वाले सिस्टम से जनरेट किए गए सुझावों की क्वालिटी का आकलन करना है.
"औसत" वाक्यांश का इस्तेमाल करना ज़रूरी नहीं है, लेकिन मेट्रिक का नाम सही है. आखिरकार, यह मेट्रिक कई k पर औसत सटीक वैल्यू का औसत ढूंढती है.
विशेषज्ञों का मिश्रण
न्यूरल नेटवर्क की परफ़ॉर्मेंस को बेहतर बनाने के लिए बनाई गई एक योजना. इसमें, किसी दिए गए इनपुट टोकन या उदाहरण को प्रोसेस करने के लिए, इसके पैरामीटर (जिन्हें एक्सपर्ट कहा जाता है) के सिर्फ़ सबसेट का इस्तेमाल किया जाता है. गेटिंग नेटवर्क, हर इनपुट टोकन या उदाहरण को सही विशेषज्ञों को भेजता है.
ज़्यादा जानकारी के लिए, इनमें से कोई एक पेपर देखें:
- बहुत बड़े न्यूरल नेटवर्क: कम गेट वाली विशेषज्ञों की लेयर
- विशेषज्ञों की पसंद के हिसाब से रूटिंग के साथ, विशेषज्ञों का मिश्रण
MMIT
मल्टीमोडल निर्देश-ट्यून के लिए छोटा नाम.
मॉडल कैस्केडिंग
यह एक ऐसा सिस्टम है जो किसी खास अनुमान से जुड़ी क्वेरी के लिए, सबसे सही मॉडल चुनता है.
मॉडल के एक ग्रुप की कल्पना करें, जिसमें बहुत बड़े (काफ़ी पैरामीटर) से लेकर बहुत छोटे (काफ़ी कम पैरामीटर) मॉडल शामिल हों. छोटे मॉडल की तुलना में, बहुत बड़े मॉडल अनुमान लगाने के समय, कंप्यूटिंग संसाधनों का ज़्यादा इस्तेमाल करते हैं. हालांकि, आम तौर पर बहुत बड़े मॉडल, छोटे मॉडल की तुलना में ज़्यादा जटिल अनुरोधों का अनुमान लगा सकते हैं. मॉडल कैस्केडिंग से, अनुमान लगाने वाली क्वेरी की जटिलता का पता चलता है. इसके बाद, अनुमान लगाने के लिए सही मॉडल चुना जाता है. मॉडल कैस्केडिंग का मुख्य मकसद, आम तौर पर छोटे मॉडल चुनकर, अनुमान लगाने में लगने वाले समय को कम करना है. साथ ही, ज़्यादा जटिल क्वेरी के लिए ही बड़ा मॉडल चुनना है.
मान लें कि एक छोटा मॉडल फ़ोन पर चलता है और उस मॉडल का बड़ा वर्शन, रिमोट सर्वर पर चलता है. मॉडल को कैस्केड करने की सही सुविधा से, लागत और इंतज़ार का समय कम हो जाता है. ऐसा इसलिए होता है, क्योंकि छोटे मॉडल को आसान अनुरोधों को मैनेज करने की सुविधा मिलती है. साथ ही, मुश्किल अनुरोधों को मैनेज करने के लिए, सिर्फ़ रिमोट मॉडल को कॉल किया जाता है.
राउटर का मॉडल भी देखें.
मॉडल राऊटर
यह एल्गोरिदम, मॉडल कैस्केडिंग में अनुमान के लिए, सबसे सही मॉडल तय करता है. मॉडल राउटर, आम तौर पर एक मशीन लर्निंग मॉडल होता है. यह किसी दिए गए इनपुट के लिए, सबसे अच्छा मॉडल चुनने का तरीका धीरे-धीरे सीखता है. हालांकि, मॉडल राउटर कभी-कभी मशीन लर्निंग एल्गोरिदम के बजाय, आसान हो सकता है.
MOE
विशेषज्ञों के मिश्रण का छोटा नाम.
MT
मशीन से अनुवाद का संक्षिप्त नाम.
नहीं
कोई एक सही जवाब नहीं है (NORA)
ऐसा प्रॉम्प्ट जिसमें एक से ज़्यादा सही जवाब हों. उदाहरण के लिए, इस प्रॉम्प्ट का कोई एक सही जवाब नहीं है:
मुझे हाथियों के बारे में कोई चुटकुला सुनाओ.
जिन प्रॉम्प्ट के लिए कोई सही जवाब नहीं होता उनका आकलन करना मुश्किल हो सकता है.
NORA
कोई सही जवाब नहीं है का छोटा रूप.
O
वन-शॉट प्रॉम्प्ट
प्रॉम्प्ट, जिसमें एक उदाहरण शामिल है. इससे पता चलता है कि लार्ज लैंग्वेज मॉडल को किस तरह जवाब देना चाहिए. उदाहरण के लिए, यहां दिए गए प्रॉम्प्ट में एक उदाहरण दिया गया है. इसमें लार्ज लैंग्वेज मॉडल को यह दिखाया गया है कि उसे किसी क्वेरी का जवाब कैसे देना चाहिए.
एक प्रॉम्प्ट के हिस्से | नोट |
---|---|
चुने गए देश की आधिकारिक मुद्रा क्या है? | वह सवाल जिसका जवाब आपको एलएलएम से चाहिए. |
फ़्रांस: यूरो | एक उदाहरण. |
भारत: | असल क्वेरी. |
एक बार में प्रॉम्प्ट करने की सुविधा की तुलना इन शब्दों से करें:
P
पैरामीटर-इफ़िशिएंट ट्यूनिंग
पहले से ट्रेन किए गए भाषा मॉडल (पीएलएम) को पूरी तरह से फ़ाइन-ट्यून करने के मुकाबले, ज़्यादा असरदार तरीके से फ़ाइन-ट्यून करने के लिए तकनीकों का सेट. पैरामीटर के हिसाब से बेहतर ट्यूनिंग, आम तौर पर पूरे फ़ाइन-ट्यूनिंग के मुकाबले बहुत कम पैरामीटर को फ़ाइन-ट्यून करती है. इसके बावजूद, आम तौर पर यह एक ऐसा बड़ा लैंग्वेज मॉडल बनाती है जो पूरे फ़ाइन-ट्यूनिंग से बनाए गए बड़े लैंग्वेज मॉडल के बराबर (या लगभग बराबर) परफ़ॉर्म करता है.
पैरामीटर-इफ़िशिएंट ट्यूनिंग की तुलना इनसे करें:
पैरामीटर-इफ़िशिएंट ट्यूनिंग को पैरामीटर-इफ़िशिएंट फ़ाइन-ट्यूनिंग भी कहा जाता है.
PLM
पहले से ट्रेन किए गए लैंग्वेज मॉडल का छोटा नाम.
ट्रेनिंग के बाद का मॉडल
यह एक ऐसा शब्द है जिसे अलग-अलग तरीके से परिभाषित किया जा सकता है. आम तौर पर, इसका मतलब पहले से ट्रेन किए गए मॉडल से होता है, जिसे पोस्ट-प्रोसेसिंग के कुछ चरणों से गुज़रना पड़ा है. जैसे, इनमें से एक या एक से ज़्यादा चरण:
पहले से ट्रेन किया गया मॉडल
आम तौर पर, ऐसा मॉडल जिसे पहले ही ट्रेनिंग दी जा चुकी है. इस शब्द का मतलब, पहले से ट्रेन किए गए एम्बेडिंग वेक्टर से भी हो सकता है.
पहले से ट्रेन किए गए लैंग्वेज मॉडल का मतलब आम तौर पर, पहले से ट्रेन किए गए बड़े लैंग्वेज मॉडल से होता है.
प्री-ट्रेनिंग
बड़े डेटासेट पर मॉडल की शुरुआती ट्रेनिंग. पहले से ट्रेन किए गए कुछ मॉडल, बड़े और जटिल होते हैं. आम तौर पर, उन्हें अतिरिक्त ट्रेनिंग देकर बेहतर बनाया जाता है. उदाहरण के लिए, एमएल विशेषज्ञ किसी बड़े टेक्स्ट डेटासेट पर, बड़े लैंग्वेज मॉडल को पहले से ट्रेन कर सकते हैं. जैसे, Wikipedia के सभी अंग्रेज़ी पेज. प्री-ट्रेनिंग के बाद, इनमें से किसी भी तकनीक का इस्तेमाल करके, मॉडल को और बेहतर बनाया जा सकता है:
प्रॉम्प्ट
लार्ज लैंग्वेज मॉडल के लिए इनपुट के तौर पर डाला गया कोई भी टेक्स्ट, ताकि मॉडल किसी खास तरीके से काम कर सके. प्रॉम्प्ट, किसी वाक्यांश के जितने छोटे या जितने चाहें उतने लंबे हो सकते हैं. उदाहरण के लिए, किसी उपन्यास का पूरा टेक्स्ट. प्रॉम्प्ट को कई कैटगरी में बांटा गया है. इनमें से कुछ कैटगरी नीचे दी गई टेबल में दिखाई गई हैं:
प्रॉम्प्ट की कैटगरी | उदाहरण | नोट |
---|---|---|
सवाल | कबूतर कितनी तेज़ी से उड़ सकता है? | |
निर्देश | अरेबिट्रेज के बारे में कोई मज़ेदार कविता लिखें. | ऐसा प्रॉम्प्ट जिसमें लार्ज लैंग्वेज मॉडल से कुछ करने के लिए कहा जाता है. |
उदाहरण | Markdown कोड को एचटीएमएल में बदलें. उदाहरण के लिए:
Markdown: * सूची का आइटम एचटीएमएल: <ul> <li>सूची का आइटम</li> </ul> |
इस उदाहरण वाले प्रॉम्प्ट का पहला वाक्य एक निर्देश है. प्रॉम्प्ट का बाकी हिस्सा उदाहरण है. |
भूमिका | बताएं कि भौतिकी में पीएचडी करने के लिए, मशीन लर्निंग ट्रेनिंग में ग्रेडिएंट डिसेंट का इस्तेमाल क्यों किया जाता है. | वाक्य का पहला हिस्सा निर्देश है; "भौतिकी में पीएचडी" वाला वाक्यांश, भूमिका का हिस्सा है. |
मॉडल को पूरा करने के लिए, कुछ हिस्से का इनपुट | यूनाइटेड किंगडम के प्रधानमंत्री का घर | कुछ हिस्से वाला इनपुट प्रॉम्प्ट, अचानक खत्म हो सकता है (जैसा कि इस उदाहरण में है) या अंडरस्कोर के साथ खत्म हो सकता है. |
जनरेटिव एआई मॉडल, टेक्स्ट, कोड, इमेज, एम्बेड, वीडियो वगैरह के साथ प्रॉम्प्ट का जवाब दे सकता है.
प्रॉम्प्ट-आधारित लर्निंग
यह कुछ मॉडल की एक सुविधा है. इसकी मदद से, वे अपने व्यवहार में बदलाव कर सकते हैं, ताकि वे किसी भी टेक्स्ट इनपुट (प्रॉम्प्ट) के जवाब में सही जवाब दे सकें. आम तौर पर, प्रॉम्प्ट के आधार पर सीखने के पैराडाइम में, लार्ज लैंग्वेज मॉडल, टेक्स्ट जनरेट करके प्रॉम्प्ट का जवाब देता है. उदाहरण के लिए, मान लें कि कोई उपयोगकर्ता यह प्रॉम्प्ट डालता है:
न्यूटन के गति के तीसरे नियम के बारे में खास जानकारी दें.
प्रॉम्प्ट के आधार पर लर्निंग करने वाले मॉडल को, पिछले प्रॉम्प्ट के जवाब देने के लिए खास तौर पर ट्रेनिंग नहीं दी जाती. इसके बजाय, मॉडल को भौतिकी के बारे में काफ़ी तथ्य "मालूम" हैं. साथ ही, उसे भाषा के सामान्य नियमों और आम तौर पर काम के जवाबों के बारे में काफ़ी जानकारी है. इस जानकारी से, उम्मीद है कि आपको काम का जवाब मिल जाएगा. लोगों के सुझाव, शिकायत या राय ("वह जवाब बहुत मुश्किल था" या "प्रतिक्रिया क्या है?") से, प्रॉम्प्ट पर आधारित लर्निंग सिस्टम को अपने जवाबों को धीरे-धीरे बेहतर बनाने में मदद मिलती है.
प्रॉम्प्ट डिज़ाइन
प्रॉम्प्ट इंजीनियरिंग का समानार्थी शब्द.
प्रॉम्प्ट इंजीनियरिंग
प्रॉम्प्ट बनाने की कला, जो लार्ज लैंग्वेज मॉडल से मनमुताबिक जवाब पाने में मदद करते हैं. प्रॉम्प्ट को इंसान बनाते हैं. लार्ज लैंग्वेज मॉडल से काम के जवाब पाने के लिए, सही तरीके से बनाए गए प्रॉम्प्ट लिखना ज़रूरी है. प्रॉम्प्ट इंजीनियरिंग कई बातों पर निर्भर करती है. जैसे:
- लार्ज लैंग्वेज मॉडल को पहले से ट्रेन करने और शायद बेहतर बनाने के लिए इस्तेमाल किया जाने वाला डेटासेट.
- temperature और डिकोड करने से जुड़े अन्य पैरामीटर, जिनका इस्तेमाल मॉडल जवाब जनरेट करने के लिए करता है.
प्रॉम्प्ट डिज़ाइन, प्रॉम्प्ट इंजीनियरिंग का दूसरा नाम है.
मददगार प्रॉम्प्ट लिखने के बारे में ज़्यादा जानने के लिए, प्रॉम्प्ट डिज़ाइन के बारे में जानकारी देखें.
प्रॉम्प्ट ट्यूनिंग
पैरामीटर को बेहतर तरीके से ट्यून करने का एक तरीका, जो "प्रीफ़िक्स" को सीखता है. सिस्टम, प्रॉम्प्ट के पहले इस प्रीफ़िक्स को जोड़ता है.
प्रॉम्प्ट ट्यूनिंग का एक वैरिएशन, प्रीफ़िक्स ट्यूनिंग है. इसमें हर लेयर में प्रीफ़िक्स जोड़ा जाता है. इसके उलट, ज़्यादातर प्रॉम्प्ट ट्यूनिंग सिर्फ़ इनपुट लेयर में प्रीफ़िक्स जोड़ती है.
R
रेफ़रंस टेक्स्ट
प्रॉम्प्ट के लिए विशेषज्ञ का जवाब. उदाहरण के लिए, यह प्रॉम्प्ट दिया गया है:
"आपका नाम क्या है?" सवाल को अंग्रेज़ी से फ़्रेंच में अनुवाद करें.
विशेषज्ञ का जवाब इस तरह का हो सकता है:
Comment vous appelez-vous?
ROUGE जैसी अलग-अलग मेट्रिक से यह पता चलता है कि रेफ़रंस टेक्स्ट, एमएल मॉडल के जनरेट किए गए टेक्स्ट से कितना मैच करता है.
लोगों के सुझाव पर आधारित रीइन्फ़ोर्समेंट लर्निंग (आरएलएचएफ़)
मॉडल के जवाबों की क्वालिटी को बेहतर बनाने के लिए, रेटिंग देने वाले लोगों के सुझाव, राय या शिकायत का इस्तेमाल करना. उदाहरण के लिए, आरएलएचएफ़ (रेवेन्यू लर्निंग फ़्रेमवर्क) का कोई तरीका, उपयोगकर्ताओं से 👍 या 👎 इमोजी का इस्तेमाल करके, मॉडल के जवाब की क्वालिटी को रेटिंग देने के लिए कह सकता है. इसके बाद, सिस्टम उस सुझाव या राय के आधार पर, आने वाले समय में अपने जवाबों में बदलाव कर सकता है.
भूमिका के लिए प्रॉम्प्ट
प्रॉम्प्ट का एक वैकल्पिक हिस्सा, जो जनरेटिव एआई मॉडल के जवाब के लिए टारगेट ऑडियंस की पहचान करता है. भूमिका के प्रॉम्प्ट बिना, लार्ज लैंग्वेज मॉडल ऐसा जवाब देता है जो सवाल पूछने वाले व्यक्ति के लिए मददगार हो सकता है या नहीं. भूमिका के हिसाब से दिए गए प्रॉम्प्ट की मदद से, लार्ज लैंग्वेज मॉडल किसी खास टारगेट ऑडियंस के लिए ज़्यादा सही और मददगार जवाब दे सकता है. उदाहरण के लिए, यहां दिए गए प्रॉम्प्ट में भूमिका से जुड़ा प्रॉम्प्ट, बोल्ड फ़ॉन्ट में है:
- इकॉनॉमिक्स में पीएचडी के लिए, इस दस्तावेज़ की खास जानकारी दो.
- दस साल के बच्चे के लिए बताएं कि ज्वार-भाटा कैसे काम करते हैं.
- साल 2008 के वित्तीय संकट के बारे में बताएं. जैसे किसी छोटे बच्चे या गोल्डन रिट्रीवर से बात की जाती है वैसे ही बोलें.
S
सॉफ़्ट प्रॉम्प्ट ट्यूनिंग
किसी खास टास्क के लिए, लार्ज लैंग्वेज मॉडल को ट्यून करने की एक तकनीक. इसमें ज़्यादा संसाधनों की ज़रूरत नहीं होती और बेहतर तरीके से ट्यून करने की ज़रूरत भी नहीं होती. मॉडल में सभी वेट को फिर से ट्रेन करने के बजाय, सॉफ़्ट प्रॉम्प्ट ट्यूनिंग एक ही लक्ष्य को हासिल करने के लिए, प्रॉम्प्ट में अपने-आप बदलाव करती है.
टेक्स्ट प्रॉम्प्ट के लिए, आम तौर पर सॉफ़्ट प्रॉम्प्ट ट्यूनिंग, प्रॉम्प्ट में अतिरिक्त टोकन एम्बेड जोड़ती है. साथ ही, इनपुट को ऑप्टिमाइज़ करने के लिए बैकप्रोपगेशन का इस्तेमाल करती है.
"हार्ड" प्रॉम्प्ट में, टोकन एम्बेड के बजाय असली टोकन होते हैं.
T
तापमान
हाइपरपैरामीटर, जो मॉडल के आउटपुट के लिए, यादृच्छिकता की डिग्री को कंट्रोल करता है. ज़्यादा तापमान पर, रैंडम आउटपुट ज़्यादा मिलता है, जबकि कम तापमान पर रैंडम आउटपुट कम मिलता है.
सबसे सही तापमान चुनना, खास ऐप्लिकेशन और मॉडल के आउटपुट की पसंदीदा प्रॉपर्टी पर निर्भर करता है. उदाहरण के लिए, क्रिएटिव आउटपुट जनरेट करने वाला ऐप्लिकेशन बनाते समय, शायद आप टेंपरेचर बढ़ाना चाहें. इसके उलट, इमेज या टेक्स्ट की कैटगरी तय करने वाला मॉडल बनाते समय, शायद आप तापमान को कम करें. इससे मॉडल की सटीकता और एक जैसी परफ़ॉर्मेंस को बेहतर बनाया जा सकता है.
तापमान का इस्तेमाल अक्सर सॉफ्टमैक्स के साथ किया जाता है.
Z
ज़ीरो-शॉट प्रॉम्प्ट
ऐसा प्रॉम्प्ट जिसमें यह उदाहरण नहीं दिया गया हो कि आपको लार्ज लैंग्वेज मॉडल से किस तरह का जवाब चाहिए. उदाहरण के लिए:
एक प्रॉम्प्ट के हिस्से | नोट |
---|---|
चुने गए देश की आधिकारिक मुद्रा क्या है? | वह सवाल जिसका जवाब आपको एलएलएम से चाहिए. |
भारत: | असल क्वेरी. |
लार्ज लैंग्वेज मॉडल इनमें से किसी भी तरह से जवाब दे सकता है:
- रुपया
- INR
- ₹
- भारतीय रुपया
- रुपया
- भारतीय रुपया
सभी जवाब सही हैं. हालांकि, हो सकता है कि आप किसी खास फ़ॉर्मैट को प्राथमिकता दें.
ज़ीरो-शॉट प्रॉम्प्टिंग की तुलना इन शब्दों से करें: