एमएल किट, किसी डिवाइस के मॉडल का इस्तेमाल करके मैसेज के छोटे जवाब जनरेट कर सकती है.
स्मार्ट जवाब जनरेट करने के लिए, आप किसी बातचीत में एमएल किट को हाल ही के मैसेज का लॉग भेजते हैं. एमएल किट को लगता है कि बातचीत अंग्रेज़ी में है और किसी बातचीत में संवेदनशील विषय नहीं है, तो एमएल किट ज़्यादा से ज़्यादा तीन जवाब जनरेट करता है. उपयोगकर्ता को इनका सुझाव दिया जा सकता है.
बंडल किए गए | अनबंडल किया गया | |
---|---|---|
लाइब्रेरी का नाम | com.google.mlkit:smart-reply | com.google.android.gms:play-services-mlkit-smart-reply |
लागू करना | मॉडल, बिल्ड टाइम पर आपके ऐप्लिकेशन से स्टैटिक तौर पर लिंक होता है. | मॉडल Google Play Services से डाइनैमिक तरीके से डाउनलोड किया जाता है. |
ऐप्लिकेशन के साइज़ पर असर | साइज़ में करीब 5.7 एमबी की बढ़ोतरी हुई. | करीब 200 केबी का साइज़ बढ़ गया है. |
शुरू होने का समय | मॉडल तुरंत उपलब्ध होता है. | पहली बार इस्तेमाल करने से पहले, मॉडल के डाउनलोड होने तक इंतज़ार करना पड़ सकता है. |
इसे आज़माएं
- इस एपीआई के इस्तेमाल के उदाहरण देखने के लिए, सैंपल ऐप्लिकेशन का इस्तेमाल करें.
शुरू करने से पहले
अपने प्रोजेक्ट-लेवल की
build.gradle
फ़ाइल में, अपनेbuildscript
औरallprojects
, दोनों सेक्शन में Google का Maven का संग्रह शामिल करना न भूलें.अपने मॉड्यूल की ऐप्लिकेशन लेवल की ग्रेडल फ़ाइल में एमएल किट Android लाइब्रेरी की डिपेंडेंसी जोड़ें. यह फ़ाइल आम तौर पर
app/build.gradle
होती है. अपनी ज़रूरतों के हिसाब से कोई एक डिपेंडेंसी चुनें:- अपने ऐप्लिकेशन में मॉडल को बंडल करने के लिए:
dependencies { // ... // Use this dependency to bundle the model with your app implementation 'com.google.mlkit:smart-reply:17.0.2' }
- Google Play services में मॉडल का इस्तेमाल करने के लिए:
dependencies { // ... // Use this dependency to use the dynamically downloaded model in Google Play Services implementation 'com.google.android.gms:play-services-mlkit-smart-reply:16.0.0-beta1' }
अगर आप Google Play services में मॉडल का इस्तेमाल करना चाहते हैं, तो Play Store से अपना ऐप्लिकेशन इंस्टॉल करने के बाद, मॉडल को उस डिवाइस पर अपने-आप डाउनलोड होने के लिए कॉन्फ़िगर कर सकते हैं. अपने ऐप्लिकेशन की
AndroidManifest.xml
फ़ाइल में, नीचे दिया गया एलान जोड़कर:<application ...> ... <meta-data android:name="com.google.mlkit.vision.DEPENDENCIES" android:value="smart_reply" > <!-- To use multiple models: android:value="smart_reply,model2,model3" --> </application>
Google Play services ModuleInstallClient API की मदद से, मॉडल की उपलब्धता की जानकारी को साफ़ तौर पर देखा जा सकता है और डाउनलोड करने का अनुरोध किया जा सकता है.
अगर आपने इंस्टॉल के समय मॉडल डाउनलोड चालू नहीं किया है या अश्लील डाउनलोड का अनुरोध किया है, तो स्मार्ट जवाब जनरेटर को पहली बार चलाने पर यह मॉडल डाउनलोड हो जाता है. डाउनलोड पूरा होने से पहले किए गए अनुरोधों का कोई नतीजा नहीं मिलता.
1. बातचीत के इतिहास से जुड़ा ऑब्जेक्ट बनाएं
स्मार्ट जवाब जनरेट करने के लिए, आप ML Kit को पहले के टाइमस्टैंप के हिसाब से, समय के हिसाब से क्रम में लगे
List
केTextMessage
ऑब्जेक्ट में पास करते हैं.जब भी कोई उपयोगकर्ता मैसेज भेजता है, तब मैसेज और उसके टाइमस्टैंप को बातचीत के इतिहास में जोड़ें:
Kotlin
conversation.add(TextMessage.createForLocalUser( "heading out now", System.currentTimeMillis()))
Java
conversation.add(TextMessage.createForLocalUser( "heading out now", System.currentTimeMillis()));
जब भी उपयोगकर्ता को कोई मैसेज मिलता है, तो मैसेज, उसका टाइमस्टैंप, और भेजने वाले के यूज़र आईडी को बातचीत के इतिहास में जोड़ें. User-ID, ऐसी कोई भी स्ट्रिंग हो सकती है जो बातचीत में भेजने वाले की खास तरीके से पहचान करती हो. User-ID को किसी उपयोगकर्ता के डेटा से मेल खाना ज़रूरी नहीं है; और User-ID के लिए स्मार्ट जवाब जनरेट करने वाले के बीच बातचीत या शुरू करने के बीच तालमेल ज़रूरी नहीं है.
Kotlin
conversation.add(TextMessage.createForRemoteUser( "Are you coming back soon?", System.currentTimeMillis(), userId))
Java
conversation.add(TextMessage.createForRemoteUser( "Are you coming back soon?", System.currentTimeMillis(), userId));
बातचीत के इतिहास वाला ऑब्जेक्ट, नीचे दिए गए उदाहरण की तरह दिखता है:
टाइमस्टैंप UserID isLocalUser मैसेज गुरुवार 21 फ़रवरी 13:13:39 पीएसटी 2019 सही क्या आप रास्ते में हैं? गुरुवार 21 फ़रवरी 13:15:03 पीएसटी 2019 दोस्ताना गलत देर हो रही है, माफ़ करें! एमएल किट किसी बातचीत के इतिहास में, आखिरी मैसेज के जवाब देने का सुझाव देती है. आखिरी मैसेज किसी गैर-स्थानीय उपयोगकर्ता से होना चाहिए. ऊपर दिए गए उदाहरण में, बातचीत में आखिरी मैसेज गैर-स्थानीय उपयोगकर्ता फ़्रेंडली0 से मिला है. जब आप ML Kit का इस्तेमाल करते हैं, तो यह लॉग, फ़्रेंडलीO के इस मैसेज के जवाब देने का सुझाव देता है: "देर से चल रहा है, माफ़ करें!"
2. मैसेज के जवाब पाएं
किसी मैसेज के लिए स्मार्ट जवाब जनरेट करने के लिए,
SmartReplyGenerator
का एक इंस्टेंस पाएं और बातचीत के इतिहास कोsuggestReplies()
तरीके से पास करें:Kotlin
val smartReplyGenerator = SmartReply.getClient() smartReply.suggestReplies(conversation) .addOnSuccessListener { result -> if (result.getStatus() == SmartReplySuggestionResult.STATUS_NOT_SUPPORTED_LANGUAGE) { // The conversation's language isn't supported, so // the result doesn't contain any suggestions. } else if (result.getStatus() == SmartReplySuggestionResult.STATUS_SUCCESS) { // Task completed successfully // ... } } .addOnFailureListener { // Task failed with an exception // ... }
Java
SmartReplyGenerator smartReply = SmartReply.getClient(); smartReply.suggestReplies(conversation) .addOnSuccessListener(new OnSuccessListener
() { @Override public void onSuccess(SmartReplySuggestionResult result) { if (result.getStatus() == SmartReplySuggestionResult.STATUS_NOT_SUPPORTED_LANGUAGE) { // The conversation's language isn't supported, so // the result doesn't contain any suggestions. } else if (result.getStatus() == SmartReplySuggestionResult.STATUS_SUCCESS) { // Task completed successfully // ... } } }) .addOnFailureListener(new OnFailureListener() { @Override public void onFailure(@NonNull Exception e) { // Task failed with an exception // ... } }); अगर कार्रवाई पूरी होती है, तो सक्सेस हैंडलर को
SmartReplySuggestionResult
ऑब्जेक्ट भेजा जाता है. इस ऑब्जेक्ट में सुझाए गए तीन जवाबों की सूची होती है, जिन्हें अपने उपयोगकर्ता को दिखाया जा सकता है:Kotlin
for (suggestion in result.suggestions) { val replyText = suggestion.text }
Java
for (SmartReplySuggestion suggestion : result.getSuggestions()) { String replyText = suggestion.getText(); }
ध्यान दें कि अगर मॉडल, सुझाए गए जवाबों की प्रासंगिकता के बारे में पक्के तौर पर नहीं बताता है, तो इनपुट बातचीत नहीं दिखाई जा सकती है. इनपुट बातचीत अंग्रेज़ी में नहीं होती है या मॉडल को संवेदनशील विषय-वस्तु का पता चलता है.