Puoi utilizzare ML Kit per riconoscere e decodificare i codici a barre.
Selezione delle | Non in bundle | In bundle |
---|---|---|
Implementazione | Il modello viene scaricato in modo dinamico tramite Google Play Services. | Il modello è collegato in modo statico alla tua app al momento della creazione. |
Dimensioni app | Le dimensioni sono aumentate di circa 200 kB. | Le dimensioni di circa 2,4 MB aumentano di circa 2,4 MB. |
Tempo di inizializzazione | Potrebbe essere necessario attendere il download del modello prima del primo utilizzo. | Il modello è disponibile immediatamente. |
Prova
- Prova l'app di esempio per vedere un utilizzo di esempio di questa API.
- Consulta l'app Showcase Material Design per un'implementazione end-to-end di questa API.
Prima di iniziare
Assicurati di includere il repository Maven di Google nel file
build.gradle
a livello di progetto in entrambe le sezionibuildscript
eallprojects
.Aggiungi le dipendenze per le librerie di ML Kit per Android al file gradle a livello di app del tuo modulo, che in genere è
app/build.gradle
. Scegli una delle seguenti dipendenze in base alle tue esigenze:Per raggruppare il modello con la tua app:
dependencies { // ... // Use this dependency to bundle the model with your app implementation 'com.google.mlkit:barcode-scanning:17.2.0' }
Per l'utilizzo del modello in Google Play Services:
dependencies { // ... // Use this dependency to use the dynamically downloaded model in Google Play Services implementation 'com.google.android.gms:play-services-mlkit-barcode-scanning:18.3.0' }
Se scegli di utilizzare il modello in Google Play Services, puoi configurare l'app in modo che scarichi automaticamente il modello sul dispositivo dopo l'installazione dell'app dal Play Store. Per farlo, aggiungi la seguente dichiarazione al file
AndroidManifest.xml
della tua app:<application ...> ... <meta-data android:name="com.google.mlkit.vision.DEPENDENCIES" android:value="barcode" > <!-- To use multiple models: android:value="barcode,model2,model3" --> </application>
Puoi anche controllare esplicitamente la disponibilità del modello e richiedere il download tramite l'APIModuleInstallClient di Google Play Services.
Se non abiliti i download dei modelli al momento dell'installazione o non richiedi il download esplicito, il modello viene scaricato la prima volta che esegui lo scanner. Le richieste effettuate prima del completamento del download non generano risultati.
Linee guida per l'immagine di input
-
Affinché ML Kit possa leggere accuratamente i codici a barre, le immagini di input devono contenere codici a barre rappresentati da una quantità sufficiente di dati dei pixel.
I requisiti specifici dei dati relativi ai pixel dipendono dal tipo di codice a barre e dalla quantità di dati codificati al suo interno, poiché molti codici a barre supportano un payload di dimensioni variabili. In generale, l'unità significativa più piccola del codice a barre deve essere larga almeno 2 pixel e, per i codici bidimensionali, avere un'altezza di 2 pixel.
Ad esempio, i codici a barre EAN-13 sono costituiti da barre e spazi larghi di 1, 2, 3 o 4 unità, pertanto un'immagine di codici a barre EAN-13 idealmente ha barre e spazi di almeno 2, 4, 6 e 8 pixel di larghezza. Poiché un codice a barre EAN-13 ha una larghezza totale di 95 unità, il codice a barre deve avere una larghezza di almeno 190 pixel.
I formati più densi, come PDF417, richiedono dimensioni in pixel maggiori affinché ML Kit possa leggerli in modo affidabile. Ad esempio, un codice PDF417 può avere fino a 34 "parole" larghe 17 unità in una singola riga, che idealmente dovrebbero avere una larghezza di almeno 1156 pixel.
-
Una scarsa messa a fuoco dell'immagine può influire sulla precisione della scansione. Se l'app non ottiene risultati accettabili, chiedi all'utente di acquisire nuovamente l'immagine.
-
Per le applicazioni tipiche, consigliamo di fornire un'immagine con risoluzione superiore, ad esempio 1280 x 720 o 1920 x 1080, che consente di leggere i codici a barre da una distanza maggiore dalla fotocamera.
Tuttavia, nelle applicazioni in cui la latenza è fondamentale, puoi migliorare le prestazioni acquisendo immagini a una risoluzione più bassa, ma richiedendo che il codice a barre rappresenti la maggior parte dell'immagine di input. Consulta anche la pagina Suggerimenti per migliorare il rendimento in tempo reale.
1. Configura il lettore di codici a barre
Se sai quali formati di codici a barre prevedi di leggere, puoi migliorare la velocità del rilevatore di codici a barre configurandolo in modo da rilevare solo questi formati.Ad esempio, per rilevare solo il codice azteco e i codici QR, crea un oggetto BarcodeScannerOptions
come nell'esempio seguente:
Kotlin
val options = BarcodeScannerOptions.Builder() .setBarcodeFormats( Barcode.FORMAT_QR_CODE, Barcode.FORMAT_AZTEC) .build()
Java
BarcodeScannerOptions options = new BarcodeScannerOptions.Builder() .setBarcodeFormats( Barcode.FORMAT_QR_CODE, Barcode.FORMAT_AZTEC) .build();
Sono supportati i seguenti formati:
- Codice 128 (
FORMAT_CODE_128
) - Codice 39 (
FORMAT_CODE_39
) - Codice 93 (
FORMAT_CODE_93
) - Codabar (
FORMAT_CODABAR
) - EAN-13 (
FORMAT_EAN_13
) - EAN-8 (
FORMAT_EAN_8
) - ITF (
FORMAT_ITF
) - UPC-A (
FORMAT_UPC_A
) - UPC-E (
FORMAT_UPC_E
) - Codice QR (
FORMAT_QR_CODE
) - PDF417 (
FORMAT_PDF417
) - Azteco (
FORMAT_AZTEC
) - Matrice di dati (
FORMAT_DATA_MATRIX
)
A partire dal modello in bundle 17.1.0 e dal modello non in bundle 18.2.0, puoi anche chiamare
enableAllPotentialBarcodes()
per restituire tutti i potenziali codici a barre anche se
non possono essere decodificati. Questa funzionalità può essere utilizzata per facilitare un ulteriore rilevamento, ad esempio aumentando lo zoom della fotocamera per ottenere un'immagine più chiara di qualsiasi codice a barre nel riquadro di delimitazione restituito.
Kotlin
val options = BarcodeScannerOptions.Builder() .setBarcodeFormats(...) .enableAllPotentialBarcodes() // Optional .build()
Java
BarcodeScannerOptions options = new BarcodeScannerOptions.Builder() .setBarcodeFormats(...) .enableAllPotentialBarcodes() // Optional .build();
Further on, starting from bundled library 17.2.0 and unbundled library 18.3.0, a new feature called auto-zoom has been introduced to further enhance the barcode scanning experience. With this feature enabled, the app is notified when all barcodes within the view are too distant for decoding. As a result, the app can effortlessly adjust the camera's zoom ratio to the recommended setting provided by the library, ensuring optimal focus and readability. This feature will significantly enhance the accuracy and success rate of barcode scanning, making it easier for apps to capture information precisely.
To enable auto-zooming and customize the experience, you can utilize the
setZoomSuggestionOptions()
method along with your
own ZoomCallback
handler and desired maximum zoom
ratio, as demonstrated in the code below.
Kotlin
val options = BarcodeScannerOptions.Builder() .setBarcodeFormats(...) .setZoomSuggestionOptions( new ZoomSuggestionOptions.Builder(zoomCallback) .setMaxSupportedZoomRatio(maxSupportedZoomRatio) .build()) // Optional .build()
Java
BarcodeScannerOptions options = new BarcodeScannerOptions.Builder() .setBarcodeFormats(...) .setZoomSuggestionOptions( new ZoomSuggestionOptions.Builder(zoomCallback) .setMaxSupportedZoomRatio(maxSupportedZoomRatio) .build()) // Optional .build();
zoomCallback
is required to be provided to handle whenever the library
suggests a zoom should be performed and this callback will always be called on
the main thread.
The following code snippet shows an example of defining a simple callback.
Kotlin
fun setZoom(ZoomRatio: Float): Boolean { if (camera.isClosed()) return false camera.getCameraControl().setZoomRatio(zoomRatio) return true }
Java
boolean setZoom(float zoomRatio) { if (camera.isClosed()) { return false; } camera.getCameraControl().setZoomRatio(zoomRatio); return true; }
maxSupportedZoomRatio
is related to the camera hardware, and different camera
libraries have different ways to fetch it (see the javadoc of the setter
method). In case this is not provided, an
unbounded zoom ratio might be produced by the library which might not be
supported. Refer to the
setMaxSupportedZoomRatio()
method
introduction to see how to get the max supported zoom ratio with different
Camera libraries.
When auto-zooming is enabled and no barcodes are successfully decoded within
the view, BarcodeScanner
triggers your zoomCallback
with the requested
zoomRatio
. If the callback correctly adjusts the camera to this zoomRatio
,
it is highly probable that the most centered potential barcode will be decoded
and returned.
A barcode may remain undecodable even after a successful zoom-in. In such cases,
BarcodeScanner
may either invoke the callback for another round of zoom-in
until the maxSupportedZoomRatio
is reached, or provide an empty list (or a
list containing potential barcodes that were not decoded, if
enableAllPotentialBarcodes()
was called) to the OnSuccessListener
(which
will be defined in step 4. Process the image).
2. Prepare the input image
To recognize barcodes in an image, create anInputImage
object
from either a Bitmap
, media.Image
, ByteBuffer
, byte array, or a file on
the device. Then, pass the InputImage
object to the
BarcodeScanner
's process
method.
You can create an InputImage
object from different sources, each is explained below.
Using a media.Image
To create an InputImage
object from a media.Image
object, such as when you capture an image from a
device's camera, pass the media.Image
object and the image's
rotation to InputImage.fromMediaImage()
.
If you use the
CameraX library, the OnImageCapturedListener
and
ImageAnalysis.Analyzer
classes calculate the rotation value
for you.
Kotlin
private class YourImageAnalyzer : ImageAnalysis.Analyzer { override fun analyze(imageProxy: ImageProxy) { val mediaImage = imageProxy.image if (mediaImage != null) { val image = InputImage.fromMediaImage(mediaImage, imageProxy.imageInfo.rotationDegrees) // Pass image to an ML Kit Vision API // ... } } }
Java
private class YourAnalyzer implements ImageAnalysis.Analyzer { @Override public void analyze(ImageProxy imageProxy) { Image mediaImage = imageProxy.getImage(); if (mediaImage != null) { InputImage image = InputImage.fromMediaImage(mediaImage, imageProxy.getImageInfo().getRotationDegrees()); // Pass image to an ML Kit Vision API // ... } } }
Se non utilizzi una raccolta della fotocamera che fornisce il grado di rotazione dell'immagine, puoi calcolarlo dal grado di rotazione del dispositivo e dall'orientamento del sensore della fotocamera nel dispositivo:
Kotlin
private val ORIENTATIONS = SparseIntArray() init { ORIENTATIONS.append(Surface.ROTATION_0, 0) ORIENTATIONS.append(Surface.ROTATION_90, 90) ORIENTATIONS.append(Surface.ROTATION_180, 180) ORIENTATIONS.append(Surface.ROTATION_270, 270) } /** * Get the angle by which an image must be rotated given the device's current * orientation. */ @RequiresApi(api = Build.VERSION_CODES.LOLLIPOP) @Throws(CameraAccessException::class) private fun getRotationCompensation(cameraId: String, activity: Activity, isFrontFacing: Boolean): Int { // Get the device's current rotation relative to its "native" orientation. // Then, from the ORIENTATIONS table, look up the angle the image must be // rotated to compensate for the device's rotation. val deviceRotation = activity.windowManager.defaultDisplay.rotation var rotationCompensation = ORIENTATIONS.get(deviceRotation) // Get the device's sensor orientation. val cameraManager = activity.getSystemService(CAMERA_SERVICE) as CameraManager val sensorOrientation = cameraManager .getCameraCharacteristics(cameraId) .get(CameraCharacteristics.SENSOR_ORIENTATION)!! if (isFrontFacing) { rotationCompensation = (sensorOrientation + rotationCompensation) % 360 } else { // back-facing rotationCompensation = (sensorOrientation - rotationCompensation + 360) % 360 } return rotationCompensation }
Java
private static final SparseIntArray ORIENTATIONS = new SparseIntArray(); static { ORIENTATIONS.append(Surface.ROTATION_0, 0); ORIENTATIONS.append(Surface.ROTATION_90, 90); ORIENTATIONS.append(Surface.ROTATION_180, 180); ORIENTATIONS.append(Surface.ROTATION_270, 270); } /** * Get the angle by which an image must be rotated given the device's current * orientation. */ @RequiresApi(api = Build.VERSION_CODES.LOLLIPOP) private int getRotationCompensation(String cameraId, Activity activity, boolean isFrontFacing) throws CameraAccessException { // Get the device's current rotation relative to its "native" orientation. // Then, from the ORIENTATIONS table, look up the angle the image must be // rotated to compensate for the device's rotation. int deviceRotation = activity.getWindowManager().getDefaultDisplay().getRotation(); int rotationCompensation = ORIENTATIONS.get(deviceRotation); // Get the device's sensor orientation. CameraManager cameraManager = (CameraManager) activity.getSystemService(CAMERA_SERVICE); int sensorOrientation = cameraManager .getCameraCharacteristics(cameraId) .get(CameraCharacteristics.SENSOR_ORIENTATION); if (isFrontFacing) { rotationCompensation = (sensorOrientation + rotationCompensation) % 360; } else { // back-facing rotationCompensation = (sensorOrientation - rotationCompensation + 360) % 360; } return rotationCompensation; }
Quindi, passa l'oggetto media.Image
e il
valore del grado di rotazione a InputImage.fromMediaImage()
:
Kotlin
val image = InputImage.fromMediaImage(mediaImage, rotation)
Java
InputImage image = InputImage.fromMediaImage(mediaImage, rotation);
Utilizzo dell'URI di un file
Per creare un oggetto InputImage
da un URI del file, passa il contesto dell'app e l'URI del file a InputImage.fromFilePath()
. Questo è utile quando
utilizzi un intent ACTION_GET_CONTENT
per richiedere all'utente di selezionare
un'immagine dall'app Galleria.
Kotlin
val image: InputImage try { image = InputImage.fromFilePath(context, uri) } catch (e: IOException) { e.printStackTrace() }
Java
InputImage image; try { image = InputImage.fromFilePath(context, uri); } catch (IOException e) { e.printStackTrace(); }
Utilizzo di ByteBuffer
o ByteArray
Per creare un oggetto InputImage
da un oggetto ByteBuffer
o ByteArray
, calcola prima il grado di rotazione
dell'immagine come descritto in precedenza per l'input media.Image
.
Quindi, crea l'oggetto InputImage
con il buffer o l'array, insieme ad altezza, larghezza, formato di codifica del colore e grado di rotazione dell'immagine:
Kotlin
val image = InputImage.fromByteBuffer( byteBuffer, /* image width */ 480, /* image height */ 360, rotationDegrees, InputImage.IMAGE_FORMAT_NV21 // or IMAGE_FORMAT_YV12 ) // Or: val image = InputImage.fromByteArray( byteArray, /* image width */ 480, /* image height */ 360, rotationDegrees, InputImage.IMAGE_FORMAT_NV21 // or IMAGE_FORMAT_YV12 )
Java
InputImage image = InputImage.fromByteBuffer(byteBuffer, /* image width */ 480, /* image height */ 360, rotationDegrees, InputImage.IMAGE_FORMAT_NV21 // or IMAGE_FORMAT_YV12 ); // Or: InputImage image = InputImage.fromByteArray( byteArray, /* image width */480, /* image height */360, rotation, InputImage.IMAGE_FORMAT_NV21 // or IMAGE_FORMAT_YV12 );
Utilizzo di un Bitmap
Per creare un oggetto InputImage
da un oggetto Bitmap
, effettua la seguente dichiarazione:
Kotlin
val image = InputImage.fromBitmap(bitmap, 0)
Java
InputImage image = InputImage.fromBitmap(bitmap, rotationDegree);
L'immagine è rappresentata da un oggetto Bitmap
insieme con i gradi di rotazione.
3. Ottieni un'istanza di BarcodeScanner
Kotlin
val scanner = BarcodeScanning.getClient() // Or, to specify the formats to recognize: // val scanner = BarcodeScanning.getClient(options)
Java
BarcodeScanner scanner = BarcodeScanning.getClient(); // Or, to specify the formats to recognize: // BarcodeScanner scanner = BarcodeScanning.getClient(options);
4. Elabora l'immagine
Passa l'immagine al metodoprocess
:
Kotlin
val result = scanner.process(image) .addOnSuccessListener { barcodes -> // Task completed successfully // ... } .addOnFailureListener { // Task failed with an exception // ... }
Java
Task<List<Barcode>> result = scanner.process(image) .addOnSuccessListener(new OnSuccessListener<List<Barcode>>() { @Override public void onSuccess(List<Barcode> barcodes) { // Task completed successfully // ... } }) .addOnFailureListener(new OnFailureListener() { @Override public void onFailure(@NonNull Exception e) { // Task failed with an exception // ... } });
5. Ottenere informazioni dai codici a barre
Se l'operazione di riconoscimento del codice a barre ha esito positivo, un elenco di oggettiBarcode
viene trasmesso al listener di successi. Ogni oggetto Barcode
rappresenta un codice a barre rilevato nell'immagine. Per ogni codice a barre, puoi ottenere le sue coordinate di delimitazione nell'immagine di input, oltre ai dati non elaborati codificati dal codice a barre. Inoltre, se lo scanner di codici a barre è riuscito a determinare il tipo di dati codificati dal codice a barre, puoi ottenere un oggetto contenente i dati analizzati.
Ad esempio:
Kotlin
for (barcode in barcodes) { val bounds = barcode.boundingBox val corners = barcode.cornerPoints val rawValue = barcode.rawValue val valueType = barcode.valueType // See API reference for complete list of supported types when (valueType) { Barcode.TYPE_WIFI -> { val ssid = barcode.wifi!!.ssid val password = barcode.wifi!!.password val type = barcode.wifi!!.encryptionType } Barcode.TYPE_URL -> { val title = barcode.url!!.title val url = barcode.url!!.url } } }
Java
for (Barcode barcode: barcodes) { Rect bounds = barcode.getBoundingBox(); Point[] corners = barcode.getCornerPoints(); String rawValue = barcode.getRawValue(); int valueType = barcode.getValueType(); // See API reference for complete list of supported types switch (valueType) { case Barcode.TYPE_WIFI: String ssid = barcode.getWifi().getSsid(); String password = barcode.getWifi().getPassword(); int type = barcode.getWifi().getEncryptionType(); break; case Barcode.TYPE_URL: String title = barcode.getUrl().getTitle(); String url = barcode.getUrl().getUrl(); break; } }
Suggerimenti per migliorare il rendimento in tempo reale
Se vuoi scansionare i codici a barre in un'applicazione in tempo reale, segui queste linee guida per ottenere le frequenze fotogrammi migliori:
-
Non acquisire l'input con la risoluzione nativa della fotocamera. Su alcuni dispositivi, l'acquisizione dell'input alla risoluzione nativa produce immagini estremamente grandi (oltre 10 megapixel), il che determina una latenza molto scarsa senza alcun vantaggio per la precisione. Richiedi invece solo la dimensione della videocamera necessaria per il rilevamento del codice a barre, che in genere non è superiore a 2 megapixel.
Se la velocità di scansione è importante, puoi ridurre ulteriormente la risoluzione di acquisizione delle immagini. Tuttavia, tieni presente i requisiti minimi per le dimensioni del codice a barre descritti sopra.
Se stai tentando di riconoscere i codici a barre di una sequenza di frame video in streaming, il riconoscimento potrebbe produrre risultati diversi da un fotogramma all'altro. Devi attendere di ottenere una serie consecutiva dello stesso valore per avere la certezza di restituire un risultato buono.
La cifra di checksum non è supportata per ITF e CODE-39.
- Se utilizzi l'API
Camera
ocamera2
, limita le chiamate al rilevatore. Se un nuovo fotogramma video diventa disponibile mentre il rilevatore è in esecuzione, rilascialo. Per un esempio, consulta la classeVisionProcessorBase
nell'app di esempio della guida rapida. - Se utilizzi l'API
CameraX
, assicurati che la strategia di contropressione sia impostata sul valore predefinitoImageAnalysis.STRATEGY_KEEP_ONLY_LATEST
. Questo garantisce che verrà inviata una sola immagine alla volta per l'analisi. Se vengono prodotte altre immagini quando l'analizzatore è occupato, queste verranno eliminate automaticamente e non verranno messe in coda per la consegna. Una volta chiusa l'immagine analizzata chiamando ImageProxy.close(), verrà pubblicata l'immagine più recente. - Se utilizzi l'output del rilevatore per sovrapporre gli elementi grafici all'immagine di input, recupera prima il risultato da ML Kit, quindi esegui il rendering dell'immagine e dell'overlay in un unico passaggio. Il rendering viene eseguito sulla superficie del display solo una volta per ogni frame di input. Per un esempio, consulta le classi
CameraSourcePreview
eGraphicOverlay
nell'app di esempio della guida rapida. - Se utilizzi l'API Camera2, acquisisci immagini in formato
ImageFormat.YUV_420_888
. Se utilizzi la versione precedente dell'API Camera, acquisisci immagini in formatoImageFormat.NV21
.
Salvo quando diversamente specificato, i contenuti di questa pagina sono concessi in base alla licenza Creative Commons Attribution 4.0, mentre gli esempi di codice sono concessi in base alla licenza Apache 2.0. Per ulteriori dettagli, consulta le norme del sito di Google Developers. Java è un marchio registrato di Oracle e/o delle sue consociate.
Ultimo aggiornamento 2024-02-28 UTC.