זיהוי אובייקטים ומעקב אחריהם באמצעות ML Kit ב-Android

קל לארגן דפים בעזרת אוספים אפשר לשמור ולסווג תוכן על סמך ההעדפות שלך.

אפשר להשתמש בלמידת מכונה (ML Kit) כדי לזהות אובייקטים במסגרות וידאו עוקבות ולעקוב אחריהן.

כשמעבירים תמונה ל-ML Kit, היא מזהה עד חמישה אובייקטים בתמונה יחד עם המיקום של כל אובייקט בתמונה. בעת זיהוי אובייקטים בווידאו בסטרימינג, לכל אובייקט יש מזהה ייחודי שאפשר להשתמש בו כדי לעקוב אחר האובייקט ממסגרת לפריים. אפשר גם להפעיל סיווג של אובייקט גס, שמתייג אובייקטים בתיאורי קטגוריות רחבים.

לפני שמתחילים

  1. בקובץ build.gradle ברמת הפרויקט, חשוב להקפיד לכלול את מאגר הנתונים של Google' גם בקטע buildscript וגם בallprojects.
  2. מוסיפים את יחסי התלות של הספריות ל-Android Kit ב-ML Kit, ברמת הקובץ של האפליקציה במודול , שהיא בדרך כלל app/build.gradle:
    dependencies {
      // ...
    
      implementation 'com.google.mlkit:object-detection:17.0.0'
    
    }
    

1. הגדרה של מזהה האובייקט

כדי לזהות אובייקטים ולעקוב אחריהם, קודם כול יוצרים מופע של ObjectDetector ומציינים באופן אופציונלי את הגדרות המזהים שרוצים לשנות כברירת מחדל.

  1. צריך להגדיר את מזהה האובייקט לתרחיש לדוגמה באמצעות אובייקט ObjectDetectorOptions. תוכלו לשנות את ההגדרות הבאות:

    הגדרות של מזהה אובייקטים
    מצב זיהוי STREAM_MODE (ברירת מחדל) | SINGLE_IMAGE_MODE

    ב-STREAM_MODE (ברירת מחדל), מזהה האובייקט פועל עם זמן אחזור קצר, אבל ייתכן שהתוצאות הראשונות לא יושלמו (למשל תיבות תוחמות או תוויות של קטגוריות) שלא הוגדרו בהפעלה הראשונה של המזהה. בנוסף, ב-STREAM_MODE, המזהה מקצה מזהי מעקב לאובייקטים, שבהם ניתן להשתמש כדי לעקוב אחר אובייקטים במסגרות. יש להשתמש במצב זה כשרוצים לעקוב אחר אובייקטים, או כאשר חשוב לזמן אחזור קצר, למשל בזמן עיבוד זרמי וידאו בזמן אמת.

    ב-SINGLE_IMAGE_MODE, מזהה האובייקט מחזיר את התוצאה אחרי שהתיבה התלויה של האובייקט נקבעת. אם מפעילים גם את הסיווג, היא תחזיר את התוצאה לאחר שהתיבה התוחמת ותווית הקטגוריה יהיו זמינות. כתוצאה מכך, זמן האחזור של הזיהוי עשוי להיות ארוך יותר. בנוסף, ב-SINGLE_IMAGE_MODE לא מוקצים מזהי מעקב. כדאי להשתמש במצב הזה אם זמן האחזור לא קריטי ולא רוצים לטפל בתוצאות חלקיות.

    זיהוי אובייקטים מרובים ומעקב אחריהם false (ברירת מחדל) | true

    האם לזהות עד חמישה אובייקטים או רק את האובייקט הבולט ביותר ולעקוב אחריהם (ברירת מחדל).

    סיווג אובייקטים false (ברירת מחדל) | true

    סיווג של אובייקטים לפי קטגוריות גסות או לא. כשהתכונה מופעלת, מזהה האובייקט מסווג את האובייקטים בקטגוריות הבאות: מוצרי אופנה, מזון, מוצרים לבית, מקומות וצמחים.

    ה-API לזיהוי ולמעקב אחר אובייקטים מותאם לשני התרחישים לדוגמה הבאים:

    • זיהוי בזמן אמת של המעקב אחר האובייקט הבולט ביותר בעינית של המצלמה.
    • זיהוי מספר אובייקטים מתמונה סטטית.

    כדי להגדיר את ה-API לתרחישים לדוגמה אלה:

    Kotlin

    // Live detection and tracking
    val options = ObjectDetectorOptions.Builder()
            .setDetectorMode(ObjectDetectorOptions.STREAM_MODE)
            .enableClassification()  // Optional
            .build()
    
    // Multiple object detection in static images
    val options = ObjectDetectorOptions.Builder()
            .setDetectorMode(ObjectDetectorOptions.SINGLE_IMAGE_MODE)
            .enableMultipleObjects()
            .enableClassification()  // Optional
            .build()

    Java

    // Live detection and tracking
    ObjectDetectorOptions options =
            new ObjectDetectorOptions.Builder()
                    .setDetectorMode(ObjectDetectorOptions.STREAM_MODE)
                    .enableClassification()  // Optional
                    .build();
    
    // Multiple object detection in static images
    ObjectDetectorOptions options =
            new ObjectDetectorOptions.Builder()
                    .setDetectorMode(ObjectDetectorOptions.SINGLE_IMAGE_MODE)
                    .enableMultipleObjects()
                    .enableClassification()  // Optional
                    .build();
  2. הצגת מכונה של ObjectDetector:

    Kotlin

    val objectDetector = ObjectDetection.getClient(options)

    Java

    ObjectDetector objectDetector = ObjectDetection.getClient(options);

2. הכנת תמונת הקלט

כדי לזהות אובייקטים ולעקוב אחריהם, העבירו תמונות אל שיטת process() של האירוע ObjectDetector.

מזהה האובייקט פועל ישירות מ-Bitmap, מ-NV21 ByteBuffer או מ-YUV_420_888 media.Image. מומלץ ליצור InputImage מהמקורות האלה אם יש לכם גישה ישירה לאחד מהם. אם תיצרו מכשיר InputImage ממקורות אחרים, אנחנו נטפל בהמרה באופן פנימי בשבילכם וייתכן שהיא תהיה פחות יעילה.

בכל מסגרת של סרטון או תמונה ברצף, יש לבצע את הפעולות הבאות:

ניתן ליצור אובייקט InputImage ממקורות שונים, כפי שמוסבר בהמשך.

באמצעות media.Image

כדי ליצור אובייקט InputImage מאובייקט media.Image, למשל כשמצלמים תמונה ממצלמה של מכשיר, צריך להעביר את האובייקט media.Image ואת הסיבוב של התמונה לInputImage.fromMediaImage().

אם נעשה שימוש בספרייה CameraX, מחלקת OnImageCapturedListener וסיווגים של ImageAnalysis.Analyzer מחשבים את הערך שלך בסבב.

Kotlin

private class YourImageAnalyzer : ImageAnalysis.Analyzer {

    override fun analyze(imageProxy: ImageProxy) {
        val mediaImage = imageProxy.image
        if (mediaImage != null) {
            val image = InputImage.fromMediaImage(mediaImage, imageProxy.imageInfo.rotationDegrees)
            // Pass image to an ML Kit Vision API
            // ...
        }
    }
}

Java

private class YourAnalyzer implements ImageAnalysis.Analyzer {

    @Override
    public void analyze(ImageProxy imageProxy) {
        Image mediaImage = imageProxy.getImage();
        if (mediaImage != null) {
          InputImage image =
                InputImage.fromMediaImage(mediaImage, imageProxy.getImageInfo().getRotationDegrees());
          // Pass image to an ML Kit Vision API
          // ...
        }
    }
}

אם לא משתמשים בספריית מצלמות שמספקת את רמת הסיבוב של התמונה, אפשר לחשב את מידת הסיבוב של המכשיר ואת הכיוון של חיישן המצלמה במכשיר:

Kotlin

private val ORIENTATIONS = SparseIntArray()

init {
    ORIENTATIONS.append(Surface.ROTATION_0, 0)
    ORIENTATIONS.append(Surface.ROTATION_90, 90)
    ORIENTATIONS.append(Surface.ROTATION_180, 180)
    ORIENTATIONS.append(Surface.ROTATION_270, 270)
}

/**
 * Get the angle by which an image must be rotated given the device's current
 * orientation.
 */
@RequiresApi(api = Build.VERSION_CODES.LOLLIPOP)
@Throws(CameraAccessException::class)
private fun getRotationCompensation(cameraId: String, activity: Activity, isFrontFacing: Boolean): Int {
    // Get the device's current rotation relative to its "native" orientation.
    // Then, from the ORIENTATIONS table, look up the angle the image must be
    // rotated to compensate for the device's rotation.
    val deviceRotation = activity.windowManager.defaultDisplay.rotation
    var rotationCompensation = ORIENTATIONS.get(deviceRotation)

    // Get the device's sensor orientation.
    val cameraManager = activity.getSystemService(CAMERA_SERVICE) as CameraManager
    val sensorOrientation = cameraManager
            .getCameraCharacteristics(cameraId)
            .get(CameraCharacteristics.SENSOR_ORIENTATION)!!

    if (isFrontFacing) {
        rotationCompensation = (sensorOrientation + rotationCompensation) % 360
    } else { // back-facing
        rotationCompensation = (sensorOrientation - rotationCompensation + 360) % 360
    }
    return rotationCompensation
}

Java

private static final SparseIntArray ORIENTATIONS = new SparseIntArray();
static {
    ORIENTATIONS.append(Surface.ROTATION_0, 0);
    ORIENTATIONS.append(Surface.ROTATION_90, 90);
    ORIENTATIONS.append(Surface.ROTATION_180, 180);
    ORIENTATIONS.append(Surface.ROTATION_270, 270);
}

/**
 * Get the angle by which an image must be rotated given the device's current
 * orientation.
 */
@RequiresApi(api = Build.VERSION_CODES.LOLLIPOP)
private int getRotationCompensation(String cameraId, Activity activity, boolean isFrontFacing)
        throws CameraAccessException {
    // Get the device's current rotation relative to its "native" orientation.
    // Then, from the ORIENTATIONS table, look up the angle the image must be
    // rotated to compensate for the device's rotation.
    int deviceRotation = activity.getWindowManager().getDefaultDisplay().getRotation();
    int rotationCompensation = ORIENTATIONS.get(deviceRotation);

    // Get the device's sensor orientation.
    CameraManager cameraManager = (CameraManager) activity.getSystemService(CAMERA_SERVICE);
    int sensorOrientation = cameraManager
            .getCameraCharacteristics(cameraId)
            .get(CameraCharacteristics.SENSOR_ORIENTATION);

    if (isFrontFacing) {
        rotationCompensation = (sensorOrientation + rotationCompensation) % 360;
    } else { // back-facing
        rotationCompensation = (sensorOrientation - rotationCompensation + 360) % 360;
    }
    return rotationCompensation;
}

לאחר מכן, צריך להעביר את האובייקט media.Image ואת הערך של רמת הסיבוב אל InputImage.fromMediaImage():

Kotlin

val image = InputImage.fromMediaImage(mediaImage, rotation)

Java

InputImage image = InputImage.fromMediaImage(mediaImage, rotation);

שימוש ב-URI של קובץ

כדי ליצור אובייקט InputImage מ-URI של קובץ, צריך להעביר את ההקשר של האפליקציה ואת ה-URI של הקובץ אל InputImage.fromFilePath(). האפשרות הזו שימושית כשמשתמשים בכוונת ACTION_GET_CONTENT כדי לבקש מהמשתמש לבחור תמונה מאפליקציית הגלריה.

Kotlin

val image: InputImage
try {
    image = InputImage.fromFilePath(context, uri)
} catch (e: IOException) {
    e.printStackTrace()
}

Java

InputImage image;
try {
    image = InputImage.fromFilePath(context, uri);
} catch (IOException e) {
    e.printStackTrace();
}

שימוש ב-ByteBuffer או ב-ByteArray

כדי ליצור אובייקט InputImage מ-ByteBuffer או מ-ByteArray, תחילה עליך לחשב את מידת סיבוב התמונה כמתואר למעלה עבור קלט media.Image. לאחר מכן, יוצרים את האובייקט InputImage באמצעות המאגר או המערך, יחד עם הגובה, הרוחב, פורמט קידוד הצבע ומידת הסיבוב של התמונה:

Kotlin

val image = InputImage.fromByteBuffer(
        byteBuffer,
        /* image width */ 480,
        /* image height */ 360,
        rotationDegrees,
        InputImage.IMAGE_FORMAT_NV21 // or IMAGE_FORMAT_YV12
)
// Or:
val image = InputImage.fromByteArray(
        byteArray,
        /* image width */ 480,
        /* image height */ 360,
        rotationDegrees,
        InputImage.IMAGE_FORMAT_NV21 // or IMAGE_FORMAT_YV12
)

Java

InputImage image = InputImage.fromByteBuffer(byteBuffer,
        /* image width */ 480,
        /* image height */ 360,
        rotationDegrees,
        InputImage.IMAGE_FORMAT_NV21 // or IMAGE_FORMAT_YV12
);
// Or:
InputImage image = InputImage.fromByteArray(
        byteArray,
        /* image width */480,
        /* image height */360,
        rotation,
        InputImage.IMAGE_FORMAT_NV21 // or IMAGE_FORMAT_YV12
);

באמצעות Bitmap

כדי ליצור אובייקט InputImage מאובייקט Bitmap, צריך ליצור את ההצהרה הבאה:

Kotlin

val image = InputImage.fromBitmap(bitmap, 0)

Java

InputImage image = InputImage.fromBitmap(bitmap, rotationDegree);

התמונה מיוצגת על ידי אובייקט Bitmap יחד עם מעלות סיבוב.

3. עיבוד התמונה

יש להעביר את התמונה לשיטה process():

Kotlin

objectDetector.process(image)
    .addOnSuccessListener { detectedObjects ->
        // Task completed successfully
        // ...
    }
    .addOnFailureListener { e ->
        // Task failed with an exception
        // ...
    }

Java

objectDetector.process(image)
    .addOnSuccessListener(
        new OnSuccessListener<List<DetectedObject>>() {
            @Override
            public void onSuccess(List<DetectedObject> detectedObjects) {
                // Task completed successfully
                // ...
            }
        })
    .addOnFailureListener(
        new OnFailureListener() {
            @Override
            public void onFailure(@NonNull Exception e) {
                // Task failed with an exception
                // ...
            }
        });

4. קבלת מידע על אובייקטים שזוהו

אם השיחה אל process() תסתיים בהצלחה, רשימה של DetectedObject תועבר למאזינים שהצליחו.

כל מאפיין DetectedObject מכיל את המאפיינים הבאים:

סלילת תיבה Rect המציין את מיקום האובייקט בתמונה.
מזהה לצורכי מעקב מספר שלם שמזהה את האובייקט בתמונות. אין צורך ב-SINGLE_IMAGE_MODE.
תוויות
תיאור תווית תיאור הטקסט של התווית. הוא יהיה אחד קבועות המחרוזת שהוגדרו ב-PredefinedCategory.
אינדקס תוויות אינדקס התווית בין כל התוויות הנתמכות על ידי המסווג. הוא יהיה אחד מהקבועים השלמים המוגדרים ב-PredefinedCategory.
מהימנות התווית ערך המהימנות של סיווג האובייקט.

Kotlin

for (detectedObject in detectedObjects) {
    val boundingBox = detectedObject.boundingBox
    val trackingId = detectedObject.trackingId
    for (label in detectedObject.labels) {
        val text = label.text
        if (PredefinedCategory.FOOD == text) {
            ...
        }
        val index = label.index
        if (PredefinedCategory.FOOD_INDEX == index) {
            ...
        }
        val confidence = label.confidence
    }
}

Java

// The list of detected objects contains one item if multiple
// object detection wasn't enabled.
for (DetectedObject detectedObject : detectedObjects) {
    Rect boundingBox = detectedObject.getBoundingBox();
    Integer trackingId = detectedObject.getTrackingId();
    for (Label label : detectedObject.getLabels()) {
        String text = label.getText();
        if (PredefinedCategory.FOOD.equals(text)) {
            ...
        }
        int index = label.getIndex();
        if (PredefinedCategory.FOOD_INDEX == index) {
            ...
        }
        float confidence = label.getConfidence();
    }
}

הבטחת חוויית משתמש מעולה

כדי ליהנות מחוויית המשתמש הטובה ביותר, מומלץ לפעול לפי ההנחיות הבאות באפליקציה:

  • זיהוי אובייקטים מוצלחים תלוי במורכבות החזותית של האובייקט. כדי שנוכל לזהות אובייקטים עם מספר קטן של תכונות ויזואליות, ייתכן שהם יצטרכו לתפוס חלק גדול יותר מהתמונה. צריך לספק למשתמשים הנחיות לצילום התיעוד שמתאים לסוג האובייקטים שרוצים לזהות.
  • בעת שימוש בסיווג, אם אתם רוצים לזהות אובייקטים שלא שייכים לקטגוריות הנתמכות, יש לבצע טיפול מיוחד עבור אובייקטים לא ידועים.

כמו כן, כדאי לבדוק את אפליקציית Showcase Material Kit ואת האוסף תבניות של עיצובים המבוססים על למידת מכונה.

Improving performance

אם אתם רוצים להשתמש בזיהוי אובייקטים באפליקציה בזמן אמת, פעלו לפי ההנחיות הבאות כדי להגיע למסגרות הפריימים הטובות ביותר:

  • אם אתם משתמשים במצב סטרימינג בזמן אמת באפליקציה כלשהי, אין להשתמש במספר זיהויי אובייקטים, כי רוב המכשירים לא יוכלו ליצור קצב פריימים מתאים.

  • השבתת הסיווג אם אין צורך בו.

  • אם משתמשים ב- Camera או ב-camera2 API, מווסתים את השיחות למזהה. אם פריים חדש של וידאו הופך לזמין בזמן שהמזהה פועל, משחררים את הפריים. לדוגמה, אפשר לעיין בקורס VisionProcessorBase באפליקציה למתחילים.
  • אם בחרת להשתמש ב-API CameraX, יש לוודא ששיטת ההחזרה מוגדרת לערך ברירת המחדל ImageAnalysis.STRATEGY_KEEP_ONLY_LATEST. כך ניתן להבטיח שתמונה אחת בלבד תישלח לניתוח בכל פעם. אם יופקו תמונות נוספות כשהמנתח יהיה עסוק, הן יושמטו אוטומטית ולא יתווספו לתור. אחרי שהתמונה תנתח, על ידי קריאה ל-Imageproxy.close() , התמונה הבאה שתישלח.
  • אם משתמשים בפלט של מזהה-העל כדי להציג גרפיקה על תמונת הקלט, תחילה יש לקבל את התוצאה מ-ML Kit, ולאחר מכן לעבד את התמונה ואת שכבת-העל בפעולה אחת. כך מתבצע עיבוד למשטח התצוגה פעם אחת בלבד עבור כל מסגרת קלט. כדי לראות דוגמה, אפשר לעיין בכיתות CameraSourcePreview ו- GraphicOverlay באפליקציה למתחילים.
  • אם משתמשים ב-Camera2 API, צריך לצלם את התמונות בפורמט ImageFormat.YUV_420_888. אם משתמשים בגרסה הישנה יותר של ממשק ה-API של המצלמה, יש לצלם תמונות בפורמט ImageFormat.NV21.