זיהוי אובייקטים, מעקב אחריהם וסיווג שלהם באמצעות מודל סיווג מותאם אישית ב-Android

קל לארגן דפים בעזרת אוספים אפשר לשמור ולסווג תוכן על סמך ההעדפות שלך.
אפשר להשתמש בלמידת מכונה (ML Kit) כדי לזהות אובייקטים במסגרות וידאו עוקבות ולעקוב אחריהן.

כשמעבירים תמונה ל-ML Kit, היא מזהה עד חמישה אובייקטים בתמונה יחד עם המיקום של כל אובייקט בתמונה. בעת זיהוי אובייקטים בסטרימינג של וידאו, לכל אובייקט יש מזהה ייחודי שאפשר להשתמש בו כדי לעקוב אחר האובייקט מהפריים.

אפשר להשתמש במודל של סיווג תמונה מותאם אישית כדי לסווג את האובייקטים שזוהו. לקבלת הדרכה על דרישות התאימות למודלים, ניתן למצוא את המאמר מודלים מותאמים אישית עם ערכת למידת מכונה.

יש שתי דרכים לשלב מודל מותאם אישית. תוכלו לקבץ את הדגם על ידי הצבתו בתוך תיקיית הנכסים של האפליקציה, או להוריד אותו באופן דינמי מ-Firebase. הטבלה הבאה משווה בין שתי האפשרויות.

דגם בחבילה מודל מתארח
הדגם הוא חלק מה-APK של האפליקציה, שמגדיל את הגודל שלה. המודל אינו חלק מה-APK. כדי לארח את הקובץ, מעלים את הקובץ למידת מכונה ב-Firebase.
הדגם זמין באופן מיידי, גם כשמכשיר Android במצב אופליין הורדת המודל מתבצעת על פי דרישה
אין צורך בפרויקט Firebase נדרש פרויקט Firebase
עליך לפרסם את האפליקציה מחדש כדי לעדכן את המודל דחיפה של עדכוני מודל בלי לפרסם מחדש את האפליקציה
ללא בדיקת A/B מובנית בדיקת A/B קלה באמצעות הגדרת תצורה מרחוק ב-Firebase

לפני שמתחילים

  1. בקובץ build.gradle ברמת הפרויקט, חשוב לכלול את המאגר Maven ב-Google בקטעים buildscript ו-allprojects.

  2. מוסיפים את יחסי התלות של הספריות ל-Android Kit ב-ML Kit, ברמת הקובץ של האפליקציה במודול , שהיא בדרך כלל app/build.gradle:

    כדי לקבץ מודל באפליקציה:

    dependencies {
      // ...
      // Object detection & tracking feature with custom bundled model
      implementation 'com.google.mlkit:object-detection-custom:17.0.0'
    }
    

    כדי להוריד מודל באופן דינמי מ-Firebase, צריך להוסיף את תלות linkFirebase:

    dependencies {
      // ...
      // Object detection & tracking feature with model downloaded
      // from firebase
      implementation 'com.google.mlkit:object-detection-custom:17.0.0'
      implementation 'com.google.mlkit:linkfirebase:17.0.0'
    }
    
  3. אם אתם רוצים להוריד מודל, הקפידו להוסיף את Firebase לפרויקט Android. אם עדיין לא עשיתם זאת, לא תצטרכו לעשות זאת בעת החבילה של המודל.

1. טעינת המודל

הגדרת מקור של מודל מקומי

כדי לקבץ את המודל עם האפליקציה שלך:

  1. מעתיקים את קובץ הדגם (שבדרך כלל מסתיים ב-.tflite או ב-.lite) לתיקיית האפליקציה ב-assets/. (ייתכן שקודם תצטרכו ליצור את התיקייה באמצעות לחיצה ימנית על התיקייה app/ ואז לחיצה על Google &gt חדש; תיקייה ≫ תיקיית נכסים).

  2. לאחר מכן, צריך להוסיף את הקובץ build.gradle לאפליקציה& כדי לוודא שהוא לא יידחס את קובץ ה-Graed בקובץ המודל בזמן בניית האפליקציה:

    android {
        // ...
        aaptOptions {
            noCompress "tflite"
            // or noCompress "lite"
        }
    }
    

    קובץ המודל ייכלל בחבילה של האפליקציה וזמין ל-ML Kit כנכס גולמי.

  3. יוצרים אובייקט LocalModel ומציינים את הנתיב לקובץ המודל:

    Kotlin

    val localModel = LocalModel.Builder()
            .setAssetFilePath("model.tflite")
            // or .setAbsoluteFilePath(absolute file path to model file)
            // or .setUri(URI to model file)
            .build()

    Java

    LocalModel localModel =
        new LocalModel.Builder()
            .setAssetFilePath("model.tflite")
            // or .setAbsoluteFilePath(absolute file path to model file)
            // or .setUri(URI to model file)
            .build();

הגדרת מקור מודלים שמתארח ב-Firebase

כדי להשתמש במודל שמתארח מרחוק, יוצרים אובייקט CustomRemoteModel עד FirebaseModelSource, ומציינת את השם שהקציתם למודל:

Kotlin

// Specify the name you assigned in the Firebase console.
val remoteModel =
    CustomRemoteModel
        .Builder(FirebaseModelSource.Builder("your_model_name").build())
        .build()

Java

// Specify the name you assigned in the Firebase console.
CustomRemoteModel remoteModel =
    new CustomRemoteModel
        .Builder(new FirebaseModelSource.Builder("your_model_name").build())
        .build();

לאחר מכן, מתחילים את המשימה של הורדת המודל, ומציינים את התנאים שבהם רוצים לאפשר הורדה. אם המודל לא נמצא במכשיר, או אם קיימת גרסה חדשה יותר של המודל, המשימה תוריד באופן אסינכרוני את המודל מ-Firebase.

Kotlin

val downloadConditions = DownloadConditions.Builder()
    .requireWifi()
    .build()
RemoteModelManager.getInstance().download(remoteModel, downloadConditions)
    .addOnSuccessListener {
        // Success.
    }

Java

DownloadConditions downloadConditions = new DownloadConditions.Builder()
        .requireWifi()
        .build();
RemoteModelManager.getInstance().download(remoteModel, downloadConditions)
        .addOnSuccessListener(new OnSuccessListener() {
            @Override
            public void onSuccess(@NonNull Task task) {
                // Success.
            }
        });

אפליקציות רבות מתחילות את משימת ההורדה בקוד האתחול שלהן, אבל אפשר לעשות זאת בכל שלב לפני שתצטרכו להשתמש במודל.

2. הגדרה של מזהה האובייקט

אחרי שמגדירים את מקורות הדגם, צריך להגדיר את מזהה האובייקט לתרחיש לדוגמה באמצעות אובייקט CustomObjectDetectorOptions. ניתן לשנות את ההגדרות הבאות:

הגדרות של מזהה אובייקטים
מצב זיהוי STREAM_MODE (ברירת מחדל) | SINGLE_IMAGE_MODE

ב-STREAM_MODE (ברירת מחדל), מזהה האובייקט פועל עם זמן אחזור קצר, אבל ייתכן שהתוצאות הראשונות לא יושלמו (למשל תיבות תוחמות או תוויות של קטגוריות) שלא הוגדרו בהפעלה הראשונה של המזהה. בנוסף, ב-STREAM_MODE, המזהה מקצה מזהי מעקב לאובייקטים, שבהם ניתן להשתמש כדי לעקוב אחר אובייקטים במסגרות. יש להשתמש במצב זה כשרוצים לעקוב אחר אובייקטים, או כאשר חשוב לזמן אחזור קצר, למשל בזמן עיבוד זרמי וידאו בזמן אמת.

ב-SINGLE_IMAGE_MODE, מזהה האובייקט מחזיר את התוצאה אחרי שהתיבה התלויה של האובייקט נקבעת. אם מפעילים גם את הסיווג, היא תחזיר את התוצאה לאחר שהתיבה התוחמת ותווית הקטגוריה יהיו זמינות. כתוצאה מכך, זמן האחזור של הזיהוי עשוי להיות ארוך יותר. בנוסף, ב-SINGLE_IMAGE_MODE לא מוקצים מזהי מעקב. כדאי להשתמש במצב הזה אם זמן האחזור לא קריטי ולא רוצים לטפל בתוצאות חלקיות.

זיהוי אובייקטים מרובים ומעקב אחריהם false (ברירת מחדל) | true

האם לזהות עד חמישה אובייקטים או רק את האובייקט הבולט ביותר ולעקוב אחריהם (ברירת מחדל).

סיווג אובייקטים false (ברירת מחדל) | true

האם אפשר לסווג אובייקטים שזוהו באמצעות מודל הסיווג המותאם אישית שסופק. כדי להשתמש במודל הסיווג המותאם אישית, יש להגדיר אותו לערך true.

סף המהימנות של הסיווג

ציון המהימנות המינימלי של התוויות שזוהו. אם המדיניות לא מוגדרת, ייעשה שימוש בסף הסיווג שהוגדר על ידי המטא-נתונים של המודל. אם המודל לא מכיל מטא-נתונים או אם המטא-נתונים לא מציינים סף לסיווג, המערכת תשתמש בסף ברירת מחדל של 0.0.

תוויות מקסימליות לכל אובייקט

מספר התוויות המרבי לכל אובייקט שהמזהה יחזיר. אם המדיניות לא מוגדרת, ייעשה שימוש בערך 10 כברירת מחדל.

ה-API לזיהוי ולמעקב אחר אובייקטים מותאם לשני התרחישים לדוגמה הבאים:

  • זיהוי בזמן אמת של המעקב אחר האובייקט הבולט ביותר בעינית של המצלמה.
  • זיהוי מספר אובייקטים מתמונה סטטית.

כדי להגדיר את ה-API לתרחישים לדוגמה אלה, באמצעות מודל בחבילה מקומית:

Kotlin

// Live detection and tracking
val customObjectDetectorOptions =
        CustomObjectDetectorOptions.Builder(localModel)
        .setDetectorMode(CustomObjectDetectorOptions.STREAM_MODE)
        .enableClassification()
        .setClassificationConfidenceThreshold(0.5f)
        .setMaxPerObjectLabelCount(3)
        .build()

// Multiple object detection in static images
val customObjectDetectorOptions =
        CustomObjectDetectorOptions.Builder(localModel)
        .setDetectorMode(CustomObjectDetectorOptions.SINGLE_IMAGE_MODE)
        .enableMultipleObjects()
        .enableClassification()
        .setClassificationConfidenceThreshold(0.5f)
        .setMaxPerObjectLabelCount(3)
        .build()

val objectDetector =
        ObjectDetection.getClient(customObjectDetectorOptions)

Java

// Live detection and tracking
CustomObjectDetectorOptions customObjectDetectorOptions =
        new CustomObjectDetectorOptions.Builder(localModel)
                .setDetectorMode(CustomObjectDetectorOptions.STREAM_MODE)
                .enableClassification()
                .setClassificationConfidenceThreshold(0.5f)
                .setMaxPerObjectLabelCount(3)
                .build();

// Multiple object detection in static images
CustomObjectDetectorOptions customObjectDetectorOptions =
        new CustomObjectDetectorOptions.Builder(localModel)
                .setDetectorMode(CustomObjectDetectorOptions.SINGLE_IMAGE_MODE)
                .enableMultipleObjects()
                .enableClassification()
                .setClassificationConfidenceThreshold(0.5f)
                .setMaxPerObjectLabelCount(3)
                .build();

ObjectDetector objectDetector =
    ObjectDetection.getClient(customObjectDetectorOptions);

אם יש לכם מודל שמתארח מרחוק, תצטרכו לבדוק שהוא הורד לפני הפעלתו. ניתן לבדוק את הסטטוס של משימת ההורדה של המודל בשיטה isModelDownloaded() של מנהל המודל.

אמנם צריך לאשר את הפעולה רק לפני שמפעילים את המזהה, אבל אם יש לכם גם מודל שמתארח מרחוק וגם מודל בחבילה מקומית, ייתכן שיהיה צורך לבצע את הבדיקה הזו במהלך ההגדרה של מזהה התמונה: עליכם ליצור מזהה מהמודל המרוחק אם הוא הורד מהמודל המקומי.

Kotlin

RemoteModelManager.getInstance().isModelDownloaded(remoteModel)
    .addOnSuccessListener { isDownloaded ->
    val optionsBuilder =
        if (isDownloaded) {
            CustomObjectDetectorOptions.Builder(remoteModel)
        } else {
            CustomObjectDetectorOptions.Builder(localModel)
        }
    val customObjectDetectorOptions = optionsBuilder
            .setDetectorMode(CustomObjectDetectorOptions.SINGLE_IMAGE_MODE)
            .enableClassification()
            .setClassificationConfidenceThreshold(0.5f)
            .setMaxPerObjectLabelCount(3)
            .build()
    val objectDetector =
        ObjectDetection.getClient(customObjectDetectorOptions)
}

Java

RemoteModelManager.getInstance().isModelDownloaded(remoteModel)
    .addOnSuccessListener(new OnSuccessListener() {
        @Override
        public void onSuccess(Boolean isDownloaded) {
            CustomObjectDetectorOptions.Builder optionsBuilder;
            if (isDownloaded) {
                optionsBuilder = new CustomObjectDetectorOptions.Builder(remoteModel);
            } else {
                optionsBuilder = new CustomObjectDetectorOptions.Builder(localModel);
            }
            CustomObjectDetectorOptions customObjectDetectorOptions = optionsBuilder
                .setDetectorMode(CustomObjectDetectorOptions.SINGLE_IMAGE_MODE)
                .enableClassification()
                .setClassificationConfidenceThreshold(0.5f)
                .setMaxPerObjectLabelCount(3)
                .build();
            ObjectDetector objectDetector =
                ObjectDetection.getClient(customObjectDetectorOptions);
        }
});

אם יש לכם רק מודל שמתארח מרחוק, עליכם להשבית פונקציונליות הקשורה לדגם – למשל, באפור או הסתרה של חלק מממשק המשתמש – עד שתאשרו את הורדת המודל. ניתן לעשות זאת על ידי צירוף מאזינים לשיטה download() של מנהל המודל:

Kotlin

RemoteModelManager.getInstance().download(remoteModel, conditions)
    .addOnSuccessListener {
        // Download complete. Depending on your app, you could enable the ML
        // feature, or switch from the local model to the remote model, etc.
    }

Java

RemoteModelManager.getInstance().download(remoteModel, conditions)
        .addOnSuccessListener(new OnSuccessListener() {
            @Override
            public void onSuccess(Void v) {
              // Download complete. Depending on your app, you could enable
              // the ML feature, or switch from the local model to the remote
              // model, etc.
            }
        });

3. הכנת תמונת הקלט

יצירת אובייקט InputImage מהתמונה. מזהה האובייקט פועל ישירות מ-Bitmap, מ-NV21 ByteBuffer או מ-YUV_420_888 media.Image. מומלץ ליצור InputImage מהמקורות האלה אם יש לכם גישה ישירה לאחד מהם. אם תיצרו InputImage ממקורות אחרים, נטפל בהמרות הפנימיות בשבילכם וייתכן שזה יהיה פחות יעיל.

ניתן ליצור אובייקט InputImage ממקורות שונים, כפי שמוסבר בהמשך.

באמצעות media.Image

כדי ליצור אובייקט InputImage מאובייקט media.Image, למשל כשמצלמים תמונה ממצלמה של מכשיר, צריך להעביר את האובייקט media.Image ואת הסיבוב של התמונה לInputImage.fromMediaImage().

אם נעשה שימוש בספרייה CameraX, מחלקת OnImageCapturedListener וסיווגים של ImageAnalysis.Analyzer מחשבים את הערך שלך בסבב.

Kotlin

private class YourImageAnalyzer : ImageAnalysis.Analyzer {

    override fun analyze(imageProxy: ImageProxy) {
        val mediaImage = imageProxy.image
        if (mediaImage != null) {
            val image = InputImage.fromMediaImage(mediaImage, imageProxy.imageInfo.rotationDegrees)
            // Pass image to an ML Kit Vision API
            // ...
        }
    }
}

Java

private class YourAnalyzer implements ImageAnalysis.Analyzer {

    @Override
    public void analyze(ImageProxy imageProxy) {
        Image mediaImage = imageProxy.getImage();
        if (mediaImage != null) {
          InputImage image =
                InputImage.fromMediaImage(mediaImage, imageProxy.getImageInfo().getRotationDegrees());
          // Pass image to an ML Kit Vision API
          // ...
        }
    }
}

אם לא משתמשים בספריית מצלמות שמספקת את רמת הסיבוב של התמונה, אפשר לחשב את מידת הסיבוב של המכשיר ואת הכיוון של חיישן המצלמה במכשיר:

Kotlin

private val ORIENTATIONS = SparseIntArray()

init {
    ORIENTATIONS.append(Surface.ROTATION_0, 0)
    ORIENTATIONS.append(Surface.ROTATION_90, 90)
    ORIENTATIONS.append(Surface.ROTATION_180, 180)
    ORIENTATIONS.append(Surface.ROTATION_270, 270)
}

/**
 * Get the angle by which an image must be rotated given the device's current
 * orientation.
 */
@RequiresApi(api = Build.VERSION_CODES.LOLLIPOP)
@Throws(CameraAccessException::class)
private fun getRotationCompensation(cameraId: String, activity: Activity, isFrontFacing: Boolean): Int {
    // Get the device's current rotation relative to its "native" orientation.
    // Then, from the ORIENTATIONS table, look up the angle the image must be
    // rotated to compensate for the device's rotation.
    val deviceRotation = activity.windowManager.defaultDisplay.rotation
    var rotationCompensation = ORIENTATIONS.get(deviceRotation)

    // Get the device's sensor orientation.
    val cameraManager = activity.getSystemService(CAMERA_SERVICE) as CameraManager
    val sensorOrientation = cameraManager
            .getCameraCharacteristics(cameraId)
            .get(CameraCharacteristics.SENSOR_ORIENTATION)!!

    if (isFrontFacing) {
        rotationCompensation = (sensorOrientation + rotationCompensation) % 360
    } else { // back-facing
        rotationCompensation = (sensorOrientation - rotationCompensation + 360) % 360
    }
    return rotationCompensation
}

Java

private static final SparseIntArray ORIENTATIONS = new SparseIntArray();
static {
    ORIENTATIONS.append(Surface.ROTATION_0, 0);
    ORIENTATIONS.append(Surface.ROTATION_90, 90);
    ORIENTATIONS.append(Surface.ROTATION_180, 180);
    ORIENTATIONS.append(Surface.ROTATION_270, 270);
}

/**
 * Get the angle by which an image must be rotated given the device's current
 * orientation.
 */
@RequiresApi(api = Build.VERSION_CODES.LOLLIPOP)
private int getRotationCompensation(String cameraId, Activity activity, boolean isFrontFacing)
        throws CameraAccessException {
    // Get the device's current rotation relative to its "native" orientation.
    // Then, from the ORIENTATIONS table, look up the angle the image must be
    // rotated to compensate for the device's rotation.
    int deviceRotation = activity.getWindowManager().getDefaultDisplay().getRotation();
    int rotationCompensation = ORIENTATIONS.get(deviceRotation);

    // Get the device's sensor orientation.
    CameraManager cameraManager = (CameraManager) activity.getSystemService(CAMERA_SERVICE);
    int sensorOrientation = cameraManager
            .getCameraCharacteristics(cameraId)
            .get(CameraCharacteristics.SENSOR_ORIENTATION);

    if (isFrontFacing) {
        rotationCompensation = (sensorOrientation + rotationCompensation) % 360;
    } else { // back-facing
        rotationCompensation = (sensorOrientation - rotationCompensation + 360) % 360;
    }
    return rotationCompensation;
}

לאחר מכן, צריך להעביר את האובייקט media.Image ואת הערך של רמת הסיבוב אל InputImage.fromMediaImage():

Kotlin

val image = InputImage.fromMediaImage(mediaImage, rotation)

Java

InputImage image = InputImage.fromMediaImage(mediaImage, rotation);

שימוש ב-URI של קובץ

כדי ליצור אובייקט InputImage מ-URI של קובץ, צריך להעביר את ההקשר של האפליקציה ואת ה-URI של הקובץ אל InputImage.fromFilePath(). האפשרות הזו שימושית כשמשתמשים בכוונת ACTION_GET_CONTENT כדי לבקש מהמשתמש לבחור תמונה מאפליקציית הגלריה.

Kotlin

val image: InputImage
try {
    image = InputImage.fromFilePath(context, uri)
} catch (e: IOException) {
    e.printStackTrace()
}

Java

InputImage image;
try {
    image = InputImage.fromFilePath(context, uri);
} catch (IOException e) {
    e.printStackTrace();
}

שימוש ב-ByteBuffer או ב-ByteArray

כדי ליצור אובייקט InputImage מ-ByteBuffer או מ-ByteArray, תחילה עליך לחשב את מידת סיבוב התמונה כמתואר למעלה עבור קלט media.Image. לאחר מכן, יוצרים את האובייקט InputImage באמצעות המאגר או המערך, יחד עם הגובה, הרוחב, פורמט קידוד הצבע ומידת הסיבוב של התמונה:

Kotlin

val image = InputImage.fromByteBuffer(
        byteBuffer,
        /* image width */ 480,
        /* image height */ 360,
        rotationDegrees,
        InputImage.IMAGE_FORMAT_NV21 // or IMAGE_FORMAT_YV12
)
// Or:
val image = InputImage.fromByteArray(
        byteArray,
        /* image width */ 480,
        /* image height */ 360,
        rotationDegrees,
        InputImage.IMAGE_FORMAT_NV21 // or IMAGE_FORMAT_YV12
)

Java

InputImage image = InputImage.fromByteBuffer(byteBuffer,
        /* image width */ 480,
        /* image height */ 360,
        rotationDegrees,
        InputImage.IMAGE_FORMAT_NV21 // or IMAGE_FORMAT_YV12
);
// Or:
InputImage image = InputImage.fromByteArray(
        byteArray,
        /* image width */480,
        /* image height */360,
        rotation,
        InputImage.IMAGE_FORMAT_NV21 // or IMAGE_FORMAT_YV12
);

באמצעות Bitmap

כדי ליצור אובייקט InputImage מאובייקט Bitmap, צריך ליצור את ההצהרה הבאה:

Kotlin

val image = InputImage.fromBitmap(bitmap, 0)

Java

InputImage image = InputImage.fromBitmap(bitmap, rotationDegree);

התמונה מיוצגת על ידי אובייקט Bitmap יחד עם מעלות סיבוב.

4. הפעלת מזהה האובייקט

Kotlin

objectDetector
    .process(image)
    .addOnFailureListener(e -> {...})
    .addOnSuccessListener(results -> {
        for (detectedObject in results) {
          // ...
        }
    });

Java

objectDetector
    .process(image)
    .addOnFailureListener(e -> {...})
    .addOnSuccessListener(results -> {
        for (DetectedObject detectedObject : results) {
          // ...
        }
    });

5. קבלת מידע על אובייקטים מתויגים

אם השיחה אל process() תסתיים בהצלחה, רשימה של DetectedObject תועבר למאזינים שהצליחו.

כל מאפיין DetectedObject מכיל את המאפיינים הבאים:

סלילת תיבה Rect המציין את מיקום האובייקט בתמונה.
מזהה לצורכי מעקב מספר שלם שמזהה את האובייקט בתמונות. אין צורך ב-SINGLE_IMAGE_MODE.
תוויות
תיאור תווית תיאור הטקסט של התווית. מוחזרת רק אם המטא-נתונים של מודל TensorFlow של Lite מכילים תיאורי תוויות.
אינדקס תוויות אינדקס התווית בין כל התוויות הנתמכות על ידי המסווג.
מהימנות התווית ערך המהימנות של סיווג האובייקט.

Kotlin

// The list of detected objects contains one item if multiple
// object detection wasn't enabled.
for (detectedObject in results) {
    val boundingBox = detectedObject.boundingBox
    val trackingId = detectedObject.trackingId
    for (label in detectedObject.labels) {
      val text = label.text
      val index = label.index
      val confidence = label.confidence
    }
}

Java

// The list of detected objects contains one item if multiple
// object detection wasn't enabled.
for (DetectedObject detectedObject : results) {
  Rect boundingBox = detectedObject.getBoundingBox();
  Integer trackingId = detectedObject.getTrackingId();
  for (Label label : detectedObject.getLabels()) {
    String text = label.getText();
    int index = label.getIndex();
    float confidence = label.getConfidence();
  }
}

הבטחת חוויית משתמש מעולה

כדי ליהנות מחוויית המשתמש הטובה ביותר, מומלץ לפעול לפי ההנחיות הבאות באפליקציה:

  • זיהוי אובייקטים מוצלחים תלוי במורכבות החזותית של האובייקט. כדי שנוכל לזהות אובייקטים עם מספר קטן של תכונות ויזואליות, ייתכן שהם יצטרכו לתפוס חלק גדול יותר מהתמונה. צריך לספק למשתמשים הנחיות לצילום התיעוד שמתאים לסוג האובייקטים שרוצים לזהות.
  • בעת שימוש בסיווג, אם אתם רוצים לזהות אובייקטים שלא שייכים לקטגוריות הנתמכות, יש לבצע טיפול מיוחד עבור אובייקטים לא ידועים.

כמו כן, כדאי לבדוק את אפליקציית Showcase Material Kit ואת האוסף תבניות של עיצובים המבוססים על למידת מכונה.

Improving performance

אם אתם רוצים להשתמש בזיהוי אובייקטים באפליקציה בזמן אמת, פעלו לפי ההנחיות הבאות כדי להגיע למסגרות הפריימים הטובות ביותר:

  • אם אתם משתמשים במצב סטרימינג בזמן אמת באפליקציה כלשהי, אין להשתמש במספר זיהויי אובייקטים, כי רוב המכשירים לא יוכלו ליצור קצב פריימים מתאים.

  • אם משתמשים ב- Camera או ב-camera2 API, מווסתים את השיחות למזהה. אם פריים חדש של וידאו הופך לזמין בזמן שהמזהה פועל, משחררים את הפריים. לדוגמה, אפשר לעיין בקורס VisionProcessorBase באפליקציה למתחילים.
  • אם בחרת להשתמש ב-API CameraX, יש לוודא ששיטת ההחזרה מוגדרת לערך ברירת המחדל ImageAnalysis.STRATEGY_KEEP_ONLY_LATEST. כך ניתן להבטיח שתמונה אחת בלבד תישלח לניתוח בכל פעם. אם יופקו תמונות נוספות כשהמנתח יהיה עסוק, הן יושמטו אוטומטית ולא יתווספו לתור. אחרי שהתמונה תנתח, על ידי קריאה ל-Imageproxy.close() , התמונה הבאה שתישלח.
  • אם משתמשים בפלט של מזהה-העל כדי להציג גרפיקה על תמונת הקלט, תחילה יש לקבל את התוצאה מ-ML Kit, ולאחר מכן לעבד את התמונה ואת שכבת-העל בפעולה אחת. כך מתבצע עיבוד למשטח התצוגה פעם אחת בלבד עבור כל מסגרת קלט. כדי לראות דוגמה, אפשר לעיין בכיתות CameraSourcePreview ו- GraphicOverlay באפליקציה למתחילים.
  • אם משתמשים ב-Camera2 API, צריך לצלם את התמונות בפורמט ImageFormat.YUV_420_888. אם משתמשים בגרסה הישנה יותר של ממשק ה-API של המצלמה, יש לצלם תמונות בפורמט ImageFormat.NV21.