Puoi usare il ML Kit per riconoscere e decodificare i codici a barre.
Funzionalità | Non in bundle | In bundle |
---|---|---|
Implementazione | Il modello viene scaricato dinamicamente tramite Google Play Services. | Il modello è collegato in modo statico alla tua app al momento della creazione. |
Dimensioni app | Aumento di circa 200 kB. | Aumento delle dimensioni di circa 2,4 MB. |
Tempo di inizializzazione | Potrebbe essere necessario attendere il download del modello prima del primo utilizzo. | Il modello è disponibile immediatamente. |
Prova
- Prova l'app di esempio per un esempio di utilizzo di questa API.
- Consulta l'app Showcase di Material Design per un'implementazione end-to-end di questa API.
Prima di iniziare
Nel file
build.gradle
a livello di progetto, assicurati di includere il repository Maven di Google nelle sezionibuildscript
eallprojects
.Aggiungi le dipendenze per le librerie Android di ML Kit al file Gradle a livello di app del modulo, che in genere è
app/build.gradle
. Scegli una delle seguenti dipendenze in base alle tue esigenze:Per raggruppare il modello con l'app:
dependencies { // ... // Use this dependency to bundle the model with your app implementation 'com.google.mlkit:barcode-scanning:17.1.0' }
Per l'utilizzo del modello in Google Play Services:
dependencies { // ... // Use this dependency to use the dynamically downloaded model in Google Play Services implementation 'com.google.android.gms:play-services-mlkit-barcode-scanning:18.2.0' }
Se scegli di utilizzare il modello in Google Play Services, puoi configurare la tua app per scaricarlo automaticamente sul dispositivo dopo l'installazione dal Play Store. Per farlo, aggiungi la seguente dichiarazione al file
AndroidManifest.xml
della tua app:<application ...> ... <meta-data android:name="com.google.mlkit.vision.DEPENDENCIES" android:value="barcode" > <!-- To use multiple models: android:value="barcode,model2,model3" --> </application>
Puoi anche controllare esplicitamente la disponibilità del modello e richiedere il download tramite l'API ModuleInstallClient di Google Play Services.
Se non abiliti i download del modello al momento dell'installazione o non richiedi il download esplicito, il modello verrà scaricato la prima volta che esegui lo scanner. Le richieste effettuate prima del completamento del download non generano risultati.
Linee guida sull'immagine di input
-
Affinché ML Kit possa leggere con precisione i codici a barre, le immagini di input devono contenere codici a barre rappresentati da dati pixel sufficienti.
I requisiti per i dati relativi ai pixel specifici dipendono dal tipo di codice a barre e dalla quantità di dati codificati al suo interno, poiché molti codici a barre supportano un payload con dimensioni variabili. In generale, l'unità più piccola del codice a barre deve essere larga almeno 2 pixel e, per i codici bidimensionali, 2 pixel di altezza.
Ad esempio, i codici a barre EAN-13 sono composti da barre e spazi larghi 1, 2, 3 o 4 unità, pertanto un'immagine codice a barre EAN-13 ha idealmente barre e spazi larghi almeno 2, 4, 6 e 8 pixel. Poiché il codice a barre EAN-13 è largo 95 unità in totale, il codice a barre deve essere largo almeno 190 pixel.
I formati più densi, come PDF417, necessitano di dimensioni in pixel maggiori per consentire al ML Kit di leggerli in modo affidabile. Ad esempio, un codice PDF417 può contenere fino a 34 "parole" larghe 17 unità in una singola riga, che idealmente dovrebbero essere larghe almeno 1156 pixel.
-
Una messa a fuoco dell'immagine scadente potrebbe influire sulla precisione della scansione. Se la tua app non ottiene risultati accettabili, chiedi all'utente di recuperare l'immagine.
-
Per le applicazioni tipiche, consigliamo di fornire un'immagine a risoluzione più elevata, ad esempio 1280 x 720 o 1920 x 1080, in modo da poter scansionare i codici a barre da una distanza maggiore dalla fotocamera.
Tuttavia, nelle applicazioni in cui la latenza è fondamentale, puoi migliorare le prestazioni acquisendo immagini a una risoluzione inferiore, ma richiedendo che il codice a barre rappresenti la maggior parte dell'immagine di input. Consulta anche l'articolo Suggerimenti per migliorare le prestazioni in tempo reale.
1. Configura il lettore di codici a barre
Se sai quali formati di codici a barre prevedi di leggere, puoi migliorare la velocità del rilevatore di codici a barre configurandolo in modo da rilevare solo questi formati.Ad esempio, per rilevare solo il codice azteco e i codici QR, crea un oggetto BarcodeScannerOptions
come nell'esempio seguente:
Kotlin
val options = BarcodeScannerOptions.Builder() .setBarcodeFormats( Barcode.FORMAT_QR_CODE, Barcode.FORMAT_AZTEC) .build()
Java
BarcodeScannerOptions options = new BarcodeScannerOptions.Builder() .setBarcodeFormats( Barcode.FORMAT_QR_CODE, Barcode.FORMAT_AZTEC) .build();
Sono supportati i seguenti formati:
- Codice 128 (
FORMAT_CODE_128
) - Codice 39 (
FORMAT_CODE_39
) - Codice 93 (
FORMAT_CODE_93
) - Codabar (
FORMAT_CODABAR
) - EAN-13 (
FORMAT_EAN_13
) - EAN-8 (
FORMAT_EAN_8
) - ITF (
FORMAT_ITF
) - UPC-A (
FORMAT_UPC_A
) - UPC-E (
FORMAT_UPC_E
) - Codice QR (
FORMAT_QR_CODE
) - PDF417 (
FORMAT_PDF417
) - Azteco (
FORMAT_AZTEC
) - Matrice di dati (
FORMAT_DATA_MATRIX
)
A partire dal modello in bundle 17.1.0 e dal modello in bundle 18.2.0, puoi anche chiamare enableAllPotentialBarcodes()
per restituire tutti i potenziali codici a barre anche se non possono essere decodificati. Può essere utilizzata per facilitare ulteriormente il rilevamento, ad esempio
aumentando lo zoom nella fotocamera per ottenere un'immagine più chiara di qualsiasi codice a barre nel
riquadro di delimitazione restituito.
Kotlin
val options = BarcodeScannerOptions.Builder() .setBarcodeFormats(...) .enableAllPotentialBarcodes() // Optional .build()
Java
BarcodeScannerOptions options = new BarcodeScannerOptions.Builder() .setBarcodeFormats(...) .enableAllPotentialBarcodes() // Optional .build();
2. Prepare the input image
To recognize barcodes in an image, create anInputImage
object
from either a Bitmap
, media.Image
, ByteBuffer
, byte array, or a file on
the device. Then, pass the InputImage
object to the
BarcodeScanner
's process
method.
You can create an InputImage
object from different sources, each is explained below.
Using a media.Image
To create an InputImage
object from a media.Image
object, such as when you capture an image from a
device's camera, pass the media.Image
object and the image's
rotation to InputImage.fromMediaImage()
.
If you use the
CameraX library, the OnImageCapturedListener
and
ImageAnalysis.Analyzer
classes calculate the rotation value
for you.
Kotlin
private class YourImageAnalyzer : ImageAnalysis.Analyzer { override fun analyze(imageProxy: ImageProxy) { val mediaImage = imageProxy.image if (mediaImage != null) { val image = InputImage.fromMediaImage(mediaImage, imageProxy.imageInfo.rotationDegrees) // Pass image to an ML Kit Vision API // ... } } }
Java
private class YourAnalyzer implements ImageAnalysis.Analyzer { @Override public void analyze(ImageProxy imageProxy) { Image mediaImage = imageProxy.getImage(); if (mediaImage != null) { InputImage image = InputImage.fromMediaImage(mediaImage, imageProxy.getImageInfo().getRotationDegrees()); // Pass image to an ML Kit Vision API // ... } } }
Se non utilizzi una libreria di videocamere che ti dà il grado di rotazione dell'immagine, puoi calcolarla in base al grado di rotazione e all'orientamento del sensore della videocamera all'interno del dispositivo:
Kotlin
private val ORIENTATIONS = SparseIntArray() init { ORIENTATIONS.append(Surface.ROTATION_0, 0) ORIENTATIONS.append(Surface.ROTATION_90, 90) ORIENTATIONS.append(Surface.ROTATION_180, 180) ORIENTATIONS.append(Surface.ROTATION_270, 270) } /** * Get the angle by which an image must be rotated given the device's current * orientation. */ @RequiresApi(api = Build.VERSION_CODES.LOLLIPOP) @Throws(CameraAccessException::class) private fun getRotationCompensation(cameraId: String, activity: Activity, isFrontFacing: Boolean): Int { // Get the device's current rotation relative to its "native" orientation. // Then, from the ORIENTATIONS table, look up the angle the image must be // rotated to compensate for the device's rotation. val deviceRotation = activity.windowManager.defaultDisplay.rotation var rotationCompensation = ORIENTATIONS.get(deviceRotation) // Get the device's sensor orientation. val cameraManager = activity.getSystemService(CAMERA_SERVICE) as CameraManager val sensorOrientation = cameraManager .getCameraCharacteristics(cameraId) .get(CameraCharacteristics.SENSOR_ORIENTATION)!! if (isFrontFacing) { rotationCompensation = (sensorOrientation + rotationCompensation) % 360 } else { // back-facing rotationCompensation = (sensorOrientation - rotationCompensation + 360) % 360 } return rotationCompensation }
Java
private static final SparseIntArray ORIENTATIONS = new SparseIntArray(); static { ORIENTATIONS.append(Surface.ROTATION_0, 0); ORIENTATIONS.append(Surface.ROTATION_90, 90); ORIENTATIONS.append(Surface.ROTATION_180, 180); ORIENTATIONS.append(Surface.ROTATION_270, 270); } /** * Get the angle by which an image must be rotated given the device's current * orientation. */ @RequiresApi(api = Build.VERSION_CODES.LOLLIPOP) private int getRotationCompensation(String cameraId, Activity activity, boolean isFrontFacing) throws CameraAccessException { // Get the device's current rotation relative to its "native" orientation. // Then, from the ORIENTATIONS table, look up the angle the image must be // rotated to compensate for the device's rotation. int deviceRotation = activity.getWindowManager().getDefaultDisplay().getRotation(); int rotationCompensation = ORIENTATIONS.get(deviceRotation); // Get the device's sensor orientation. CameraManager cameraManager = (CameraManager) activity.getSystemService(CAMERA_SERVICE); int sensorOrientation = cameraManager .getCameraCharacteristics(cameraId) .get(CameraCharacteristics.SENSOR_ORIENTATION); if (isFrontFacing) { rotationCompensation = (sensorOrientation + rotationCompensation) % 360; } else { // back-facing rotationCompensation = (sensorOrientation - rotationCompensation + 360) % 360; } return rotationCompensation; }
Quindi, trasmetti l'oggetto media.Image
e il valore del grado di rotazione a InputImage.fromMediaImage()
:
Kotlin
val image = InputImage.fromMediaImage(mediaImage, rotation)
Java
InputImage image = InputImage.fromMediaImage(mediaImage, rotation);
Utilizzo di un URI del file
Per creare un oggetto InputImage
da un URI del file, trasmetti il contesto dell'app e l'URI del file a InputImage.fromFilePath()
. Ciò è utile quando
utilizzi un intent ACTION_GET_CONTENT
per chiedere all'utente di selezionare
un'immagine dalla sua app della galleria.
Kotlin
val image: InputImage try { image = InputImage.fromFilePath(context, uri) } catch (e: IOException) { e.printStackTrace() }
Java
InputImage image; try { image = InputImage.fromFilePath(context, uri); } catch (IOException e) { e.printStackTrace(); }
ByteBuffer
o ByteArray
in uso
Per creare un oggetto InputImage
da un elemento ByteBuffer
o ByteArray
, devi prima calcolare il grado di rotazione delle immagini come descritto in precedenza per l'input media.Image
.
Quindi, crea l'oggetto InputImage
con il buffer o l'array, insieme all'altezza, alla larghezza, al formato di codifica a colori e al grado di rotazione dell'immagine:
Kotlin
val image = InputImage.fromByteBuffer( byteBuffer, /* image width */ 480, /* image height */ 360, rotationDegrees, InputImage.IMAGE_FORMAT_NV21 // or IMAGE_FORMAT_YV12 ) // Or: val image = InputImage.fromByteArray( byteArray, /* image width */ 480, /* image height */ 360, rotationDegrees, InputImage.IMAGE_FORMAT_NV21 // or IMAGE_FORMAT_YV12 )
Java
InputImage image = InputImage.fromByteBuffer(byteBuffer, /* image width */ 480, /* image height */ 360, rotationDegrees, InputImage.IMAGE_FORMAT_NV21 // or IMAGE_FORMAT_YV12 ); // Or: InputImage image = InputImage.fromByteArray( byteArray, /* image width */480, /* image height */360, rotation, InputImage.IMAGE_FORMAT_NV21 // or IMAGE_FORMAT_YV12 );
Con un Bitmap
Per creare un oggetto InputImage
da un oggetto Bitmap
, dichiara la seguente dichiarazione:
Kotlin
val image = InputImage.fromBitmap(bitmap, 0)
Java
InputImage image = InputImage.fromBitmap(bitmap, rotationDegree);
L'immagine è rappresentata da un oggetto Bitmap
insieme a gradi di rotazione.
3. Ottieni un'istanza di BarcodeScanner
Kotlin
val scanner = BarcodeScanning.getClient() // Or, to specify the formats to recognize: // val scanner = BarcodeScanning.getClient(options)
Java
BarcodeScanner scanner = BarcodeScanning.getClient(); // Or, to specify the formats to recognize: // BarcodeScanner scanner = BarcodeScanning.getClient(options);
4. Elabora l'immagine
Passa l'immagine al metodoprocess
:
Kotlin
val result = scanner.process(image) .addOnSuccessListener { barcodes -> // Task completed successfully // ... } .addOnFailureListener { // Task failed with an exception // ... }
Java
Task<List<Barcode>> result = scanner.process(image) .addOnSuccessListener(new OnSuccessListener<List<Barcode>>() { @Override public void onSuccess(List<Barcode> barcodes) { // Task completed successfully // ... } }) .addOnFailureListener(new OnFailureListener() { @Override public void onFailure(@NonNull Exception e) { // Task failed with an exception // ... } });
5. Ricevere informazioni dai codici a barre
Se l'operazione di riconoscimento dei codici a barre ha esito positivo, verrà trasmesso un elenco di oggettiBarcode
al listener di successo. Ogni oggetto Barcode
rappresenta un codice a barre rilevato nell'immagine. Per ogni codice a barre, puoi ottenere le coordinate di delimitazione nell'immagine di input, nonché i dati non elaborati codificati dal codice a barre. Inoltre, se lo scanner di codici a barre è stato in grado di determinare il tipo di dati codificati dal codice a barre, puoi ottenere un oggetto contenente dati analizzati.
Ad esempio:
Kotlin
for (barcode in barcodes) { val bounds = barcode.boundingBox val corners = barcode.cornerPoints val rawValue = barcode.rawValue val valueType = barcode.valueType // See API reference for complete list of supported types when (valueType) { Barcode.TYPE_WIFI -> { val ssid = barcode.wifi!!.ssid val password = barcode.wifi!!.password val type = barcode.wifi!!.encryptionType } Barcode.TYPE_URL -> { val title = barcode.url!!.title val url = barcode.url!!.url } } }
Java
for (Barcode barcode: barcodes) { Rect bounds = barcode.getBoundingBox(); Point[] corners = barcode.getCornerPoints(); String rawValue = barcode.getRawValue(); int valueType = barcode.getValueType(); // See API reference for complete list of supported types switch (valueType) { case Barcode.TYPE_WIFI: String ssid = barcode.getWifi().getSsid(); String password = barcode.getWifi().getPassword(); int type = barcode.getWifi().getEncryptionType(); break; case Barcode.TYPE_URL: String title = barcode.getUrl().getTitle(); String url = barcode.getUrl().getUrl(); break; } }
Suggerimenti per migliorare il rendimento in tempo reale
Se vuoi scansionare i codici a barre in un'applicazione in tempo reale, segui queste linee guida per ottenere le migliori frequenze di fotogrammi:
-
Non acquisire l'input con la risoluzione nativa della videocamera. Su alcuni dispositivi, l'acquisizione di input alla risoluzione nativa produce immagini estremamente grandi (oltre 10 megapixel), con conseguente latenza molto scarsa senza vantaggi per l'accuratezza. Richiedi invece la dimensione della fotocamera richiesta per il rilevamento del codice a barre, che di solito non è superiore a 2 megapixel.
Se la velocità di scansione è importante, puoi ridurre ulteriormente la risoluzione dell'acquisizione delle immagini. Tuttavia, tieni presente i requisiti minimi per le dimensioni dei codici a barre descritti sopra.
Se stai cercando di riconoscere i codici a barre da una sequenza di frame video in streaming, il riconoscimento potrebbe produrre risultati diversi da un frame all'altro. Per avere la certezza di ottenere un buon risultato, devi attendere di ottenere una serie consecutiva dello stesso valore.
La cifra di checksum non è supportata per ITF e CODE-39.
- Se utilizzi l'API
Camera
ocamera2
, limita le chiamate al rilevatore. Se è disponibile un nuovo frame video mentre il rilevatore è in esecuzione, elimina il frame. Per un esempio, consulta la classeVisionProcessorBase
nell'app di esempio della guida rapida. - Se utilizzi l'API
CameraX
, assicurati che il valore predefinito della strategia di contropressione sia impostato suImageAnalysis.STRATEGY_KEEP_ONLY_LATEST
. Ciò garantisce che venga pubblicata una sola immagine alla volta per l'analisi. Se vengono generate altre immagini quando l'analizzatore è occupato, le immagini verranno eliminate automaticamente e non verranno messe in coda per la pubblicazione. Dopo aver chiuso l'immagine analizzata, chiamando ImageProxy.close(), verrà pubblicata l'ultima immagine più recente. - Se utilizzi l'output del rilevatore per sovrapporre la grafica sull'immagine di input, ottieni prima il risultato dal ML Kit, quindi visualizza l'immagine e l'overlay in un solo passaggio. Viene visualizzato sulla superficie di visualizzazione una sola volta per ogni frame di input. Per un esempio, consulta le classi
CameraSourcePreview
eGraphicOverlay
nell'app di esempio della guida rapida. - Se utilizzi l'API Camera2, acquisisci le immagini nel formato
ImageFormat.YUV_420_888
. Se utilizzi la precedente API Camera, acquisisci le immagini nel formatoImageFormat.NV21
.