- Le SDK Sceneform pour Android a été publié en Open Source et archivé (github.com/google-ar/sceneform-android-sdk) avec la version 1.16.0.
- Ce site (developers.google.com/sceneform) sert d'archive de documentation pour la version précédente, le SDK Sceneform pour Android 1.15.0.
- N'utilisez pas la version 1.17.0 des artefacts Maven Sceneform.
- Vous pouvez utiliser les artefacts Maven 1.17.1. Hormis la version, les artefacts 1.17.1 sont identiques aux artefacts 1.15.0.
Visages augmentés
Restez organisé à l'aide des collections
Enregistrez et classez les contenus selon vos préférences.
Augmented Faces permet à votre application d'identifier automatiquement les différentes régions d'un visage détecté, et d'utiliser ces régions pour superposer des éléments tels que des textures et des modèles de sorte qu'ils correspondent aux contours et aux régions d'un visage.
Comment fonctionne Augmented Faces ?
L'exemple d'application AugmentedFaces superpose les caractéristiques du visage d'un renard sur le visage d'un utilisateur à l'aide des éléments d'un modèle et d'une texture.
![]()
Le modèle 3D est constitué de deux oreilles de renard et d'un nez de renard. Chaque os est un os distinct qui peut être déplacé individuellement pour suivre la zone du visage à laquelle il est rattaché:
![]()
La texture se compose d'une ombre à paupières, de taches de rousseur et d'autres éléments colorants:
![]()
Lorsque vous exécutez l'application exemple, elle appelle des API pour détecter un visage et superpose la texture et les modèles sur le visage.
Identifier un maillage de visages augmenté
Afin de superposer correctement les textures et les modèles 3D d'un visage détecté, ARCore fournit des régions détectées et un maillage de visage augmenté. Ce maillage est une représentation virtuelle du visage et comprend les sommets, les régions du visage et le centre de la tête de l'utilisateur. Notez que l'orientation du maillage est différente pour Sceneform.
![]()
Lorsqu'un visage est détecté par la caméra, ARCore effectue les étapes suivantes pour générer le maillage de visages augmentés, ainsi que les positions centrales et régionales:
Il identifie la position centrale et un maille de visage.
- La position centrale, située derrière le nez, est le point central de la tête de l'utilisateur (c'est-à-dire, à l'intérieur du crâne).
![]()
- Le maillage de visages est constitué de centaines de sommets qui constituent le visage. Il est défini par rapport à la position centrale.
![]()
La classe AugmentedFace
utilise le maillage de visages et la position centrale pour identifier les posions de région du visage sur le visage de l'utilisateur. Ces régions sont les suivantes:
- Front gauche (
LEFT_FOREHEAD
)
- Front droit (
RIGHT_FOREHEAD
)
- Pointe du nez (
NOSE_TIP
)
Ces éléments (la position centrale, le maillage de visages et les postures de région de visage) constituent le maillage de visages augmentés et sont utilisés par les API AugmentedFace
comme points de positionnement et régions pour placer les éléments dans votre application.
Étapes suivantes
Commencez à utiliser la fonctionnalité Visages augmentés dans vos propres applications. Pour en savoir plus, consultez les sections suivantes :
Sauf indication contraire, le contenu de cette page est régi par une licence Creative Commons Attribution 4.0, et les échantillons de code sont régis par une licence Apache 2.0. Pour en savoir plus, consultez les Règles du site Google Developers. Java est une marque déposée d'Oracle et/ou de ses sociétés affiliées.
Dernière mise à jour le 2022/09/26 (UTC).
[[["Facile à comprendre","easyToUnderstand","thumb-up"],["J'ai pu résoudre mon problème","solvedMyProblem","thumb-up"],["Autre","otherUp","thumb-up"]],[["Il n'y a pas l'information dont j'ai besoin","missingTheInformationINeed","thumb-down"],["Trop compliqué/Trop d'étapes","tooComplicatedTooManySteps","thumb-down"],["Obsolète","outOfDate","thumb-down"],["Problème de traduction","translationIssue","thumb-down"],["Mauvais exemple/Erreur de code","samplesCodeIssue","thumb-down"],["Autre","otherDown","thumb-down"]],["Dernière mise à jour le 2022/09/26 (UTC)."],[[["Augmented Faces automatically identifies face regions to overlay assets like textures and models, realistically conforming to individual faces."],["It utilizes a 3D model with movable bones (e.g., ears, nose) and a texture for features like eye shadow, freckles, etc., to augment the user's face."],["ARCore provides an augmented face mesh, consisting of vertices, facial regions, and the head's center, for precise overlay placement."],["The process involves detecting the center pose, creating a face mesh, and identifying face region poses (forehead, nose tip) for asset positioning."],["Developers can leverage Augmented Faces by creating specific assets and using the Sceneform developer guide for implementation."]]],["Augmented Faces utilizes ARCore to detect a user's face and overlay digital assets. ARCore identifies the face's center pose and generates a face mesh composed of vertices. Using this mesh and center pose, the system determines region poses, such as the left and right forehead, and the nose tip. These elements help position assets like textures (eye shadow, freckles) and 3D models (fox ears, nose) onto the face, allowing the system to move these elements with the face, resulting in a proper fit.\n"]]