Erweiterte Gesichter

Mit Augmented Faces kann Ihre App automatisch verschiedene Regionen eines erkannten Gesichts identifizieren und diese Bereiche verwenden, um Assets wie Texturen und Modelle so zu überlagern, dass sie den Konturen und Regionen eines Gesichts entsprechen.

Wie funktioniert Augmented Faces?

Die Beispielanwendung AugmentedFaces überlagert die Gesichtsmerkmale eines Fuchses mit den Assets eines Modells und einer Textur auf dem Gesicht eines Nutzers.

Das 3D-Modell besteht aus zwei Fuchsohren und einer Fuchsnase. Jedes ist ein separater Knochen, der einzeln bewegt werden kann, um den jeweiligen Gesichtsbereich zu folgen:

Die Textur besteht aus Lidschatten, Sommersprossen und anderen Farben:

Wenn Sie die Beispielanwendung ausführen, werden APIs aufgerufen, um ein Gesicht zu erkennen und sowohl die Textur als auch die Modelle auf dem Gesicht zu überlagern.

Erweitertes Mesh-Netzwerk erkennen

Damit Core Texturen und 3D-Modelle korrekt auf einem erkannten Gesicht überlagern kann, bietet ARCore erkannte Bereiche und ein erweitertes Face Mesh. Dieses Netz ist eine virtuelle Darstellung des Gesichts und besteht aus Eckpunkten, Gesichtsbereichen und der Mitte des Kopfes des Nutzers. Beachten Sie, dass die Ausrichtung des Mesh-Netzwerks für Sceneform unterschiedlich ist.

Wenn das Gesicht eines Nutzers von der Kamera erkannt wird, führt ARCore die folgenden Schritte aus, um das erweiterte Mesh-Netzwerk zu erzeugen sowie die Mitte und die Region zu repräsentieren:

  1. Er erkennt die Mitte des Körpers und ein Gesichtsgitter.

    • Die zentrale Position hinter der Nase ist der zentrale Bereich des Kopfes, also des Schädels innerhalb des Schädels.

    • Das Gesichtsnetz besteht aus Hunderten von Eckpunkten, aus denen das Gesicht besteht, und ist relativ zur Pose festgelegt.

  2. Die Klasse AugmentedFace verwendet das Gesichtsnetz und die Mittelstellung, um Gesichtsstellungen des Gesichts des Nutzers zu identifizieren. Diese Regionen sind:

    • Linke Stirn (LEFT_FOREHEAD)
    • Rechte Stirn (RIGHT_FOREHEAD)
    • Nasenspitze (NOSE_TIP)

Diese Elemente – die zentrale Position, das Mesh-Netzwerk und der Gesichtsbereich – bilden das erweiterte Face Mesh und werden von AugmentedFace-APIs zur Positionierung der Assets in Ihrer App verwendet.

Weitere Informationen

Du kannst Augmented Faces in deinen eigenen Apps verwenden. Weitere Informationen erhalten Sie unter: