ML Kit может генерировать короткие ответы на сообщения, используя модель на устройстве.
Для генерации умных ответов вы передаете ML Kit журнал последних сообщений в разговоре. Если ML Kit определяет, что разговор ведется на английском языке и что в разговоре нет потенциально деликатных тем, ML Kit генерирует до трех ответов, которые вы можете предложить своему пользователю.
В комплекте | Разделенный | |
---|---|---|
Название библиотеки | com.google.mlkit:smart-reply | com.google.android.gms:play-services-mlkit-smart-reply |
Выполнение | Модель статически привязывается к вашему приложению во время сборки. | Модель динамически загружается через Google Play Services. |
Влияние размера приложения | Увеличение размера примерно на 5,7 МБ. | Увеличение размера примерно на 200 КБ. |
Время инициализации | Модель доступна немедленно. | Возможно, придется подождать, пока модель загрузится перед первым использованием. |
Попробуйте это
- Поэкспериментируйте с образцом приложения , чтобы увидеть пример использования этого API.
Прежде чем начать
В файле
build.gradle
на уровне проекта обязательно включите репозиторий Maven от Google в разделыbuildscript
иallprojects
.Добавьте зависимости для библиотек Android ML Kit в файл gradle уровня приложения вашего модуля, который обычно называется
app/build.gradle
. Выберите одну из следующих зависимостей в зависимости от ваших потребностей:- Чтобы связать модель с вашим приложением:
dependencies { // ... // Use this dependency to bundle the model with your app implementation 'com.google.mlkit:smart-reply:17.0.4' }
- Чтобы использовать модель в Google Play Services:
dependencies { // ... // Use this dependency to use the dynamically downloaded model in Google Play Services implementation 'com.google.android.gms:play-services-mlkit-smart-reply:16.0.0-beta1' }
Если вы решили использовать модель в Google Play Services, вы можете настроить свое приложение на автоматическую загрузку модели на устройство после установки приложения из Play Store. Добавив следующее объявление в файл
AndroidManifest.xml
вашего приложения:<application ...> ... <meta-data android:name="com.google.mlkit.vision.DEPENDENCIES" android:value="smart_reply" > <!-- To use multiple models: android:value="smart_reply,model2,model3" --> </application>
Вы также можете явно проверить доступность модели и запросить загрузку через API ModuleInstallClient сервисов Google Play.
Если вы не включите загрузку модели во время установки или не запросите явную загрузку, модель будет загружена при первом запуске генератора интеллектуальных ответов. Запросы, которые вы делаете до завершения загрузки, не дадут никаких результатов.
1. Создайте объект истории разговоров
Для генерации интеллектуальных ответов вы передаете ML Kit хронологически упорядоченный
List
объектовTextMessage
, начиная с самой ранней временной метки.Всякий раз, когда пользователь отправляет сообщение, добавляйте сообщение и его временную метку в историю сообщений:
Котлин
conversation.add(TextMessage.createForLocalUser( "heading out now", System.currentTimeMillis()))
Ява
conversation.add(TextMessage.createForLocalUser( "heading out now", System.currentTimeMillis()));
Всякий раз, когда пользователь получает сообщение, добавляйте сообщение, его временную метку и идентификатор пользователя отправителя в историю разговора. Идентификатор пользователя может быть любой строкой, которая уникально идентифицирует отправителя в рамках разговора. Идентификатор пользователя не обязательно должен соответствовать каким-либо данным пользователя, и идентификатор пользователя не обязательно должен быть согласованным между разговором или вызовами генератора интеллектуальных ответов.
Котлин
conversation.add(TextMessage.createForRemoteUser( "Are you coming back soon?", System.currentTimeMillis(), userId))
Ява
conversation.add(TextMessage.createForRemoteUser( "Are you coming back soon?", System.currentTimeMillis(), userId));
Объект истории разговоров выглядит следующим образом:
Временная метка ID пользователя isLocalUser Сообщение Чт Фев 21 13:13:39 PST 2019 истинный Вы уже в пути? Чт Фев 21 13:15:03 PST 2019 ДРУГ0 ЛОЖЬ Извините, опаздываю! ML Kit предлагает ответы на последнее сообщение в истории разговора. Последнее сообщение должно быть от нелокального пользователя. В приведенном выше примере последнее сообщение в разговоре от нелокального пользователя FRIEND0. Когда вы используете pass ML Kit this log, он предлагает ответы на сообщение FRIENDO: "Опоздал, извините!"
2. Получайте ответы на сообщения
Чтобы сгенерировать умные ответы на сообщение, получите экземпляр
SmartReplyGenerator
и передайте историю разговора в его методsuggestReplies()
:Котлин
val smartReplyGenerator = SmartReply.getClient() smartReply.suggestReplies(conversation) .addOnSuccessListener { result -> if (result.getStatus() == SmartReplySuggestionResult.STATUS_NOT_SUPPORTED_LANGUAGE) { // The conversation's language isn't supported, so // the result doesn't contain any suggestions. } else if (result.getStatus() == SmartReplySuggestionResult.STATUS_SUCCESS) { // Task completed successfully // ... } } .addOnFailureListener { // Task failed with an exception // ... }
Ява
SmartReplyGenerator smartReply = SmartReply.getClient(); smartReply.suggestReplies(conversation) .addOnSuccessListener(new OnSuccessListener
() { @Override public void onSuccess(SmartReplySuggestionResult result) { if (result.getStatus() == SmartReplySuggestionResult.STATUS_NOT_SUPPORTED_LANGUAGE) { // The conversation's language isn't supported, so // the result doesn't contain any suggestions. } else if (result.getStatus() == SmartReplySuggestionResult.STATUS_SUCCESS) { // Task completed successfully // ... } } }) .addOnFailureListener(new OnFailureListener() { @Override public void onFailure(@NonNull Exception e) { // Task failed with an exception // ... } }); Если операция прошла успешно, объект
SmartReplySuggestionResult
передается обработчику успеха. Этот объект содержит список из трех предложенных ответов, которые вы можете представить своему пользователю:Котлин
for (suggestion in result.suggestions) { val replyText = suggestion.text }
Ява
for (SmartReplySuggestion suggestion : result.getSuggestions()) { String replyText = suggestion.getText(); }
Обратите внимание, что ML Kit может не возвращать результаты, если модель не уверена в релевантности предлагаемых ответов, входной разговор ведется не на английском языке или если модель обнаружит деликатную тему.