L'API Mobile Vision dispose de détecteurs qui vous permettent de trouver des objets dans vos photos et vidéos.
Dans cet entraînement, vous allez apprendre à installer un exemple d'application pour détecter les visages sur les photos en temps réel.
Avant de commencer
- Configurez votre environnement de développement Android. Si vous débutez dans le développement d'applications Android, consultez la page Créer votre première application.
- disposer d'un appareil Android à des fins de test, équipé d'Android 2.3 (Gingerbread) ou version ultérieure, et comprenant le Google Play Store.
Télécharger et exécuter l'exemple d'application
Pour cet exercice, vous devrez télécharger l'exemple d'application Android Photo Demo.
Pour télécharger et configurer l'exemple d'application dans Android Studio:
Téléchargez les exemples Vision depuis GitHub.
Vous pouvez utiliser le bouton "Télécharger le fichier ZIP" sur la page GitHub ou cloner sur la ligne de commande:
git clone https://github.com/googlesamples/android-vision.git
Importez le projet
photo-demo
dans Android Studio:- Cliquez sur File > New > Import Project (Fichier > Nouveau > Importer un projet).
- Dans la fenêtre "Sélectionner le projet Eclipse ou Gradle à importer", accédez au répertoire dans lequel vous avez téléchargé le dépôt d'exemples Vision.
- Sélectionnez le dossier "photo-demo", puis cliquez sur OK.
- Android Studio peut vous inviter à installer la dernière version de différentes bibliothèques Android, en particulier com.android.gms.play-services dans ce cas. Cliquez sur "Installer le dépôt et synchroniser le projet" et suivez les instructions.
Connectez votre appareil via USB. Une notification indiquant "Débogage USB activé" doit s'afficher. Si cette notification ne s'affiche pas, suivez l'étape 2 pour activer le débogage USB sur votre appareil, puis rebranchez-le.
Exécutez l'application en cliquant sur la flèche verte dans la barre ou en sélectionnant Run > Run 'app' (Exécuter > Exécuter l'application).
L'application doit afficher une image de visage avec des cercles indiquant les yeux, le nez, la bouche et les joues.
Étapes suivantes
Maintenant que votre environnement est configuré pour s'exécuter avec l'API Mobile Vision, vous pouvez effectuer les actions suivantes:
- En savoir plus sur les concepts de la détection des visages
- En savoir plus sur le lecteur de codes-barres
- Scannez le texte qui vous entoure avec l'API Text
- Testez les autres exemples de projets dans le dépôt GitHub et suivez les pages du tutoriel pour en savoir plus sur le code :
- Pour plus d'informations sur l'application que vous venez de créer, consultez l'article Détecter les traits du visage dans les photos. Modifiez le code pour traiter vos propres photos.
- Ajouter le suivi des visages à votre application : montre comment créer un pipeline pour suivre plusieurs visages à la fois
- Suivi des visages et des codes-barres : découvrez comment suivre les visages et les codes-barres simultanément.
- Vous pouvez également essayer nos ateliers de programmation: Détection des visages, Code-barres, Texte.
- Consultez la documentation de référence sur l'API Mobile Vision.
Pour en savoir plus sur la configuration des services Google Play afin qu'ils fonctionnent avec vos projets, consultez Configurer les services Google Play et compilez-les à l'aide de com.google.android.gms:play-services-vision
.