আপনি এমএল কিট ব্যবহার করে পরপর ভিডিও ফ্রেমে বস্তু সনাক্ত ও ট্র্যাক করতে পারেন।
আপনি যখন এমএল কিট-এ একটি ছবি পাঠান, তখন এটি ছবিতে থাকা পাঁচটি পর্যন্ত বস্তু এবং প্রতিটি বস্তুর অবস্থান শনাক্ত করে। ভিডিও স্ট্রিমে বস্তু শনাক্ত করার সময়, প্রতিটি বস্তুর একটি অনন্য আইডি থাকে যা ব্যবহার করে আপনি ফ্রেম থেকে ফ্রেমে বস্তুটিকে ট্র্যাক করতে পারেন। এছাড়াও আপনি ঐচ্ছিকভাবে স্থূল বস্তু শ্রেণিবিন্যাস (coarse object classification) সক্রিয় করতে পারেন, যা বস্তুগুলোকে বিস্তৃত বিভাগীয় বিবরণ দিয়ে লেবেল করে।
চেষ্টা করে দেখুন
- এই API-টির একটি উদাহরণমূলক ব্যবহার দেখতে নমুনা অ্যাপটি ব্যবহার করে দেখুন।
- এই API-টির সম্পূর্ণ বাস্তবায়ন দেখতে ম্যাটেরিয়াল ডিজাইন শোকেস অ্যাপটি দেখুন।
শুরু করার আগে
- আপনার প্রোজেক্ট-স্তরের
build.gradleফাইলে,buildscriptএবংallprojectsউভয় সেকশনেই গুগলের মেভেন রিপোজিটরি অন্তর্ভুক্ত করা নিশ্চিত করুন। - আপনার মডিউলের অ্যাপ-লেভেল গ্রেডল ফাইলে (যা সাধারণত
app/build.gradleহয়) এমএল কিট অ্যান্ড্রয়েড লাইব্রেরির ডিপেন্ডেন্সিগুলো যোগ করুন।dependencies { // ... implementation 'com.google.mlkit:object-detection:17.0.2' }
১. অবজেক্ট ডিটেক্টরটি কনফিগার করুন।
বস্তু সনাক্ত ও ট্র্যাক করতে, প্রথমে ObjectDetector এর একটি ইনস্ট্যান্স তৈরি করুন এবং ঐচ্ছিকভাবে ডিফল্ট থেকে যে ডিটেক্টর সেটিংসগুলো পরিবর্তন করতে চান, তা নির্দিষ্ট করুন।
একটি
ObjectDetectorOptionsঅবজেক্ট ব্যবহার করে আপনার ব্যবহারের জন্য অবজেক্ট ডিটেক্টরটি কনফিগার করুন। আপনি নিম্নলিখিত সেটিংস পরিবর্তন করতে পারেন:অবজেক্ট ডিটেক্টর সেটিংস সনাক্তকরণ মোড STREAM_MODE(ডিফল্ট) |SINGLE_IMAGE_MODESTREAM_MODE(ডিফল্ট), অবজেক্ট ডিটেক্টর কম ল্যাটেন্সিতে চলে, কিন্তু ডিটেক্টরের প্রথম কয়েকটি চালনায় এটি অসম্পূর্ণ ফলাফল (যেমন অনির্দিষ্ট বাউন্ডিং বক্স বা ক্যাটাগরি লেবেল) দিতে পারে। এছাড়াও,STREAM_MODEডিটেক্টর অবজেক্টগুলোকে ট্র্যাকিং আইডি প্রদান করে, যা ব্যবহার করে আপনি বিভিন্ন ফ্রেমে অবজেক্ট ট্র্যাক করতে পারেন। যখন আপনি অবজেক্ট ট্র্যাক করতে চান, অথবা যখন কম ল্যাটেন্সি গুরুত্বপূর্ণ, যেমন রিয়েল টাইমে ভিডিও স্ট্রিম প্রসেস করার সময়, তখন এই মোডটি ব্যবহার করুন।SINGLE_IMAGE_MODEএ, অবজেক্টের বাউন্ডিং বক্স নির্ধারিত হওয়ার পর অবজেক্ট ডিটেক্টর ফলাফল প্রদান করে। আপনি যদি ক্লাসিফিকেশনও চালু করেন, তবে বাউন্ডিং বক্স এবং ক্যাটাগরি লেবেল উভয়ই উপলব্ধ হওয়ার পর এটি ফলাফল প্রদান করে। ফলস্বরূপ, ডিটেকশন ল্যাটেন্সি সম্ভাব্যভাবে বেশি হতে পারে। এছাড়াও,SINGLE_IMAGE_MODEএ ট্র্যাকিং আইডি বরাদ্দ করা হয় না। এই মোডটি ব্যবহার করুন যদি ল্যাটেন্সি খুব গুরুত্বপূর্ণ না হয় এবং আপনি আংশিক ফলাফল নিয়ে কাজ করতে না চান।একাধিক বস্তু সনাক্ত ও ট্র্যাক করুন false(ডিফল্ট) |trueসর্বোচ্চ পাঁচটি বস্তু সনাক্ত ও ট্র্যাক করা হবে, নাকি শুধুমাত্র সবচেয়ে সুস্পষ্ট বস্তুটি (ডিফল্ট)।
বস্তু শ্রেণীবদ্ধ করুন false(ডিফল্ট) |trueশনাক্তকৃত বস্তুগুলোকে স্থূল শ্রেণীতে শ্রেণীবদ্ধ করা হবে কি না। সক্রিয় করা হলে, অবজেক্ট ডিটেক্টর বস্তুগুলোকে নিম্নলিখিত শ্রেণীতে শ্রেণীবদ্ধ করে: ফ্যাশন সামগ্রী, খাদ্য, গৃহস্থালি সামগ্রী, স্থান এবং উদ্ভিদ।
অবজেক্ট ডিটেকশন এবং ট্র্যাকিং এপিআইটি এই দুটি মূল ব্যবহারের ক্ষেত্রের জন্য অপ্টিমাইজ করা হয়েছে:
- ক্যামেরার ভিউফাইন্ডারে থাকা সবচেয়ে সুস্পষ্ট বস্তুটির সরাসরি শনাক্তকরণ ও অনুসরণ।
- একটি স্থির চিত্র থেকে একাধিক বস্তু শনাক্তকরণ।
এই ব্যবহারের ক্ষেত্রগুলির জন্য API কনফিগার করতে:
কোটলিন
// Live detection and tracking val options = ObjectDetectorOptions.Builder() .setDetectorMode(ObjectDetectorOptions.STREAM_MODE) .enableClassification() // Optional .build() // Multiple object detection in static images val options = ObjectDetectorOptions.Builder() .setDetectorMode(ObjectDetectorOptions.SINGLE_IMAGE_MODE) .enableMultipleObjects() .enableClassification() // Optional .build()
জাভা
// Live detection and tracking ObjectDetectorOptions options = new ObjectDetectorOptions.Builder() .setDetectorMode(ObjectDetectorOptions.STREAM_MODE) .enableClassification() // Optional .build(); // Multiple object detection in static images ObjectDetectorOptions options = new ObjectDetectorOptions.Builder() .setDetectorMode(ObjectDetectorOptions.SINGLE_IMAGE_MODE) .enableMultipleObjects() .enableClassification() // Optional .build();
ObjectDetectorএর একটি ইনস্ট্যান্স নিন:কোটলিন
val objectDetector = ObjectDetection.getClient(options)
জাভা
ObjectDetector objectDetector = ObjectDetection.getClient(options);
২. ইনপুট চিত্রটি প্রস্তুত করুন।
অবজেক্ট শনাক্ত ও ট্র্যাক করতে,ObjectDetector ইনস্ট্যান্সের process() মেথডে ছবিগুলো পাঠান। অবজেক্ট ডিটেক্টরটি সরাসরি একটি Bitmap , এনভি২১ ByteBuffer বা একটি YUV_420_888 media.Image থেকে চলে। যদি আপনার এগুলোর কোনো একটিতে সরাসরি অ্যাক্সেস থাকে, তবে সেই উৎসগুলো থেকে একটি InputImage তৈরি করার পরামর্শ দেওয়া হয়। আপনি যদি অন্য কোনো উৎস থেকে InputImage তৈরি করেন, তবে আমরা আপনার জন্য অভ্যন্তরীণভাবে রূপান্তরের কাজটি করে দেব এবং সেটি ততটা কার্যকর নাও হতে পারে।
একটি সিকোয়েন্সের প্রতিটি ভিডিও বা ইমেজ ফ্রেমের জন্য নিম্নলিখিত কাজগুলো করুন:
আপনি বিভিন্ন উৎস থেকে একটি InputImage অবজেক্ট তৈরি করতে পারেন, যার প্রতিটি নিচে ব্যাখ্যা করা হলো।
একটি media.Image ব্যবহার করে।
একটি media.Image অবজেক্ট থেকে InputImage অবজেক্ট তৈরি করতে, যেমন যখন আপনি ডিভাইসের ক্যামেরা থেকে একটি ছবি তোলেন, তখন media.Image অবজেক্টটি এবং ছবিটির রোটেশন InputImage.fromMediaImage() ফাংশনে পাস করুন।
আপনি CameraX লাইব্রেরি ব্যবহার করলে, OnImageCapturedListener এবং ImageAnalysis.Analyzer ক্লাসগুলো আপনার জন্য ঘূর্ণন মান গণনা করে দেয়।
কোটলিন
private class YourImageAnalyzer : ImageAnalysis.Analyzer { override fun analyze(imageProxy: ImageProxy) { val mediaImage = imageProxy.image if (mediaImage != null) { val image = InputImage.fromMediaImage(mediaImage, imageProxy.imageInfo.rotationDegrees) // Pass image to an ML Kit Vision API // ... } } }
জাভা
private class YourAnalyzer implements ImageAnalysis.Analyzer { @Override public void analyze(ImageProxy imageProxy) { Image mediaImage = imageProxy.getImage(); if (mediaImage != null) { InputImage image = InputImage.fromMediaImage(mediaImage, imageProxy.getImageInfo().getRotationDegrees()); // Pass image to an ML Kit Vision API // ... } } }
যদি আপনি এমন কোনো ক্যামেরা লাইব্রেরি ব্যবহার না করেন যা আপনাকে ছবির ঘূর্ণন মাত্রা জানিয়ে দেয়, তাহলে আপনি ডিভাইসের ঘূর্ণন মাত্রা এবং ডিভাইসের ক্যামেরা সেন্সরের অভিমুখ থেকে এটি গণনা করতে পারেন:
কোটলিন
private val ORIENTATIONS = SparseIntArray() init { ORIENTATIONS.append(Surface.ROTATION_0, 0) ORIENTATIONS.append(Surface.ROTATION_90, 90) ORIENTATIONS.append(Surface.ROTATION_180, 180) ORIENTATIONS.append(Surface.ROTATION_270, 270) } /** * Get the angle by which an image must be rotated given the device's current * orientation. */ @RequiresApi(api = Build.VERSION_CODES.LOLLIPOP) @Throws(CameraAccessException::class) private fun getRotationCompensation(cameraId: String, activity: Activity, isFrontFacing: Boolean): Int { // Get the device's current rotation relative to its "native" orientation. // Then, from the ORIENTATIONS table, look up the angle the image must be // rotated to compensate for the device's rotation. val deviceRotation = activity.windowManager.defaultDisplay.rotation var rotationCompensation = ORIENTATIONS.get(deviceRotation) // Get the device's sensor orientation. val cameraManager = activity.getSystemService(CAMERA_SERVICE) as CameraManager val sensorOrientation = cameraManager .getCameraCharacteristics(cameraId) .get(CameraCharacteristics.SENSOR_ORIENTATION)!! if (isFrontFacing) { rotationCompensation = (sensorOrientation + rotationCompensation) % 360 } else { // back-facing rotationCompensation = (sensorOrientation - rotationCompensation + 360) % 360 } return rotationCompensation }
জাভা
private static final SparseIntArray ORIENTATIONS = new SparseIntArray(); static { ORIENTATIONS.append(Surface.ROTATION_0, 0); ORIENTATIONS.append(Surface.ROTATION_90, 90); ORIENTATIONS.append(Surface.ROTATION_180, 180); ORIENTATIONS.append(Surface.ROTATION_270, 270); } /** * Get the angle by which an image must be rotated given the device's current * orientation. */ @RequiresApi(api = Build.VERSION_CODES.LOLLIPOP) private int getRotationCompensation(String cameraId, Activity activity, boolean isFrontFacing) throws CameraAccessException { // Get the device's current rotation relative to its "native" orientation. // Then, from the ORIENTATIONS table, look up the angle the image must be // rotated to compensate for the device's rotation. int deviceRotation = activity.getWindowManager().getDefaultDisplay().getRotation(); int rotationCompensation = ORIENTATIONS.get(deviceRotation); // Get the device's sensor orientation. CameraManager cameraManager = (CameraManager) activity.getSystemService(CAMERA_SERVICE); int sensorOrientation = cameraManager .getCameraCharacteristics(cameraId) .get(CameraCharacteristics.SENSOR_ORIENTATION); if (isFrontFacing) { rotationCompensation = (sensorOrientation + rotationCompensation) % 360; } else { // back-facing rotationCompensation = (sensorOrientation - rotationCompensation + 360) % 360; } return rotationCompensation; }
এরপর, media.Image অবজেক্ট এবং ঘূর্ণন ডিগ্রির মানটি InputImage.fromMediaImage() -এ পাস করুন:
কোটলিন
val image = InputImage.fromMediaImage(mediaImage, rotation)
Java
InputImage image = InputImage.fromMediaImage(mediaImage, rotation);
একটি ফাইল URI ব্যবহার করে
একটি ফাইল URI থেকে InputImage অবজেক্ট তৈরি করতে, InputImage.fromFilePath() -এ অ্যাপ কনটেক্সট এবং ফাইল URI পাস করুন। এটি তখন কাজে আসে যখন আপনি ACTION_GET_CONTENT ইন্টেন্ট ব্যবহার করে ব্যবহারকারীকে তার গ্যালারি অ্যাপ থেকে একটি ছবি বেছে নিতে বলেন।
কোটলিন
val image: InputImage try { image = InputImage.fromFilePath(context, uri) } catch (e: IOException) { e.printStackTrace() }
Java
InputImage image; try { image = InputImage.fromFilePath(context, uri); } catch (IOException e) { e.printStackTrace(); }
ByteBuffer বা ByteArray ব্যবহার করে
একটি ByteBuffer বা ByteArray থেকে InputImage অবজেক্ট তৈরি করতে, প্রথমে media.Image ইনপুটের জন্য পূর্বে বর্ণিত পদ্ধতি অনুযায়ী ছবির ঘূর্ণন মাত্রা গণনা করুন। তারপর, বাফার বা অ্যারেটি ব্যবহার করে ছবির উচ্চতা, প্রস্থ, কালার এনকোডিং ফরম্যাট এবং ঘূর্ণন মাত্রা সহ InputImage অবজেক্টটি তৈরি করুন।
কোটলিন
val image = InputImage.fromByteBuffer( byteBuffer, /* image width */ 480, /* image height */ 360, rotationDegrees, InputImage.IMAGE_FORMAT_NV21 // or IMAGE_FORMAT_YV12 ) // Or: val image = InputImage.fromByteArray( byteArray, /* image width */ 480, /* image height */ 360, rotationDegrees, InputImage.IMAGE_FORMAT_NV21 // or IMAGE_FORMAT_YV12 )
জাভা
InputImage image = InputImage.fromByteBuffer(byteBuffer, /* image width */ 480, /* image height */ 360, rotationDegrees, InputImage.IMAGE_FORMAT_NV21 // or IMAGE_FORMAT_YV12 ); // Or: InputImage image = InputImage.fromByteArray( byteArray, /* image width */480, /* image height */360, rotation, InputImage.IMAGE_FORMAT_NV21 // or IMAGE_FORMAT_YV12 );
Bitmap ব্যবহার করে
একটি Bitmap অবজেক্ট থেকে InputImage অবজেক্ট তৈরি করতে, নিম্নলিখিত ডিক্লারেশনটি করুন:
কোটলিন
val image = InputImage.fromBitmap(bitmap, 0)
Java
InputImage image = InputImage.fromBitmap(bitmap, rotationDegree);
ছবিটি ঘূর্ণন মাত্রা সহ একটি Bitmap অবজেক্ট দ্বারা উপস্থাপিত হয়।
৩. ছবিটি প্রক্রিয়া করুন
ছবিটিprocess() মেথডে পাঠান: কোটলিন
objectDetector.process(image) .addOnSuccessListener { detectedObjects -> // Task completed successfully // ... } .addOnFailureListener { e -> // Task failed with an exception // ... }
জাভা
objectDetector.process(image) .addOnSuccessListener( new OnSuccessListener<List<DetectedObject>>() { @Override public void onSuccess(List<DetectedObject> detectedObjects) { // Task completed successfully // ... } }) .addOnFailureListener( new OnFailureListener() { @Override public void onFailure(@NonNull Exception e) { // Task failed with an exception // ... } });
৪. শনাক্তকৃত বস্তুগুলো সম্পর্কে তথ্য সংগ্রহ করুন
যদি process() কলটি সফল হয়, তাহলে DetectedObject গুলোর একটি তালিকা success listener-এ পাঠানো হয়।
প্রতিটি DetectedObject নিম্নলিখিত প্রোপার্টিগুলো থাকে:
| বাউন্ডিং বক্স | একটি Rect যা ছবিতে বস্তুটির অবস্থান নির্দেশ করে। | ||||||
| ট্র্যাকিং আইডি | একটি পূর্ণসংখ্যা যা একাধিক ছবির মধ্যে বস্তুটিকে শনাক্ত করে। SINGLE_IMAGE_MODE-এ এর মান নাল (Null)। | ||||||
| লেবেল |
|
কোটলিন
for (detectedObject in detectedObjects) { val boundingBox = detectedObject.boundingBox val trackingId = detectedObject.trackingId for (label in detectedObject.labels) { val text = label.text if (PredefinedCategory.FOOD == text) { ... } val index = label.index if (PredefinedCategory.FOOD_INDEX == index) { ... } val confidence = label.confidence } }
জাভা
// The list of detected objects contains one item if multiple // object detection wasn't enabled. for (DetectedObject detectedObject : detectedObjects) { Rect boundingBox = detectedObject.getBoundingBox(); Integer trackingId = detectedObject.getTrackingId(); for (Label label : detectedObject.getLabels()) { String text = label.getText(); if (PredefinedCategory.FOOD.equals(text)) { ... } int index = label.getIndex(); if (PredefinedCategory.FOOD_INDEX == index) { ... } float confidence = label.getConfidence(); } }
একটি দুর্দান্ত ব্যবহারকারীর অভিজ্ঞতা নিশ্চিত করা
সর্বোত্তম ব্যবহারকারী অভিজ্ঞতার জন্য, আপনার অ্যাপে এই নির্দেশিকাগুলো অনুসরণ করুন:
- সফল বস্তু শনাক্তকরণ বস্তুটির দৃশ্যমান জটিলতার উপর নির্ভর করে। শনাক্ত হওয়ার জন্য, অল্প সংখ্যক দৃশ্যমান বৈশিষ্ট্যযুক্ত বস্তুকে ছবির একটি বড় অংশ জুড়ে থাকতে হতে পারে। আপনি যে ধরনের বস্তু শনাক্ত করতে চান, সেগুলোর জন্য উপযুক্ত ইনপুট গ্রহণের বিষয়ে ব্যবহারকারীদের নির্দেশনা দেওয়া উচিত।
- ক্লাসিফিকেশন ব্যবহার করার সময়, যদি আপনি এমন বস্তু শনাক্ত করতে চান যা সমর্থিত বিভাগগুলোর কোনোটিতেই স্পষ্টভাবে পড়ে না, তাহলে অজানা বস্তুগুলোর জন্য বিশেষ ব্যবস্থা গ্রহণ করুন।
এছাড়াও, এমএল কিট ম্যাটেরিয়াল ডিজাইন শোকেস অ্যাপ এবং মেশিন লার্নিং-চালিত ফিচারগুলোর জন্য ম্যাটেরিয়াল ডিজাইন প্যাটার্নস কালেকশনটি দেখে নিন।
কর্মক্ষমতা উন্নত করা
আপনি যদি কোনো রিয়েল-টাইম অ্যাপ্লিকেশনে অবজেক্ট ডিটেকশন ব্যবহার করতে চান, তাহলে সর্বোত্তম ফ্রেমরেট পেতে এই নির্দেশিকাগুলো অনুসরণ করুন:
রিয়েল-টাইম অ্যাপ্লিকেশনে স্ট্রিমিং মোড ব্যবহার করার সময় মাল্টিপল অবজেক্ট ডিটেকশন ব্যবহার করবেন না, কারণ বেশিরভাগ ডিভাইস পর্যাপ্ত ফ্রেমরেট তৈরি করতে সক্ষম হবে না।
প্রয়োজন না থাকলে শ্রেণিবিন্যাস নিষ্ক্রিয় করুন।
- আপনি যদি
Cameraবাcamera2API ব্যবহার করেন, তাহলে ডিটেক্টরে কল করার গতি সীমিত করুন। ডিটেক্টর চলার সময় যদি একটি নতুন ভিডিও ফ্রেম উপলব্ধ হয়, তাহলে ফ্রেমটি বাদ দিন। একটি উদাহরণের জন্য কুইকস্টার্ট স্যাম্পল অ্যাপেVisionProcessorBaseক্লাসটি দেখুন। - If you use the
CameraXAPI, be sure that backpressure strategy is set to its default valueImageAnalysis.STRATEGY_KEEP_ONLY_LATEST. This guarantees only one image will be delivered for analysis at a time. If more images are produced when the analyzer is busy, they will be dropped automatically and not queued for delivery. Once the image being analyzed is closed by calling ImageProxy.close(), the next latest image will be delivered. - যদি আপনি ইনপুট ইমেজের উপর গ্রাফিক্স ওভারলে করার জন্য ডিটেক্টরের আউটপুট ব্যবহার করেন, তাহলে প্রথমে এমএল কিট (ML Kit) থেকে ফলাফলটি নিন, তারপর ইমেজটি রেন্ডার করুন এবং একটি একক ধাপে ওভারলে করুন। এর ফলে প্রতিটি ইনপুট ফ্রেমের জন্য ডিসপ্লে সারফেসে কেবল একবারই রেন্ডার হয়। একটি উদাহরণের জন্য কুইকস্টার্ট স্যাম্পল অ্যাপে
CameraSourcePreviewএবংGraphicOverlayক্লাসগুলো দেখুন। - If you use the Camera2 API, capture images in
ImageFormat.YUV_420_888format. If you use the older Camera API, capture images inImageFormat.NV21format.