Google setzt sich dafür ein, die Rassengerechtigkeit für schwarze Gemeinschaften zu fördern. Siehe wie.

Augmented Faces

Mit Augmented Faces kann Ihre App automatisch verschiedene Regionen eines erkannten Gesichts identifizieren und diese Regionen verwenden, um Elemente wie Texturen und Modelle so zu überlagern, dass sie den Konturen und Regionen eines einzelnen Gesichts entsprechen.

Wie funktioniert Augmented Faces?

Die AugmentedFaces- Beispiel-App überlagert die Gesichtszüge eines Fuchses auf dem Gesicht eines Benutzers, wobei sowohl die Elemente eines Modells als auch eine Textur verwendet werden.

Das 3D-Modell besteht aus zwei Fuchsohren und einer Fuchsnase. Jeder ist ein separater Knochen , der einzeln bewegt werden kann, um der Gesichtsregion zu folgen, an der sie befestigt sind:

Die Textur besteht aus Lidschatten, Sommersprossen und anderen Farben:

Wenn Sie die Beispiel-App ausführen, werden APIs aufgerufen, um ein Gesicht zu erkennen, und sowohl die Textur als auch die Modelle werden auf das Gesicht gelegt.

Identifizieren eines erweiterten Gesichtsnetzes

Um Texturen und 3D-Modelle auf einem erkannten Gesicht richtig zu überlagern, bietet ARCore erkannte Bereiche und ein erweitertes Gesichtsnetz . Dieses Netz ist eine virtuelle Darstellung des Gesichts und besteht aus den Eckpunkten, Gesichtsbereichen und der Mitte des Kopfes des Benutzers.

Wenn das Gesicht eines Benutzers von der Kamera erkannt wird, führt ARCore die folgenden Schritte aus, um das erweiterte Gesichtsnetz sowie die Posen in der Mitte und in der Region zu generieren:

  1. Es identifiziert die mittlere Pose und ein Gesichtsnetz .

    • Die hinter der Nase befindliche Mittelstellung ist der physische Mittelpunkt des Kopfes des Benutzers (dh innerhalb des Schädels).

    • Das Gesichtsnetz besteht aus Hunderten von Eckpunkten, aus denen das Gesicht besteht, und ist relativ zur Mittelstellung definiert.

  2. Die AugmentedFace Klasse verwendet das Gesichtsnetz und die mittlere Pose, um die Posen der Gesichtsbereiche auf dem Gesicht des Benutzers zu identifizieren. Diese Regionen sind:

    • Linke Stirn ( LEFT_FOREHEAD )
    • Rechte Stirn ( RIGHT_FOREHEAD )
    • NOSE_TIP ( NOSE_TIP )

Diese Elemente - die Posen für die mittlere Pose, das Gesichtsnetz und die Gesichtsregion - umfassen das erweiterte Gesichtsnetz und werden von AugmentedFace APIs als Positionierungspunkte und Regionen zum Platzieren der Assets in Ihrer App verwendet.

Nächste Schritte

Verwenden Sie Augmented Faces in Ihren eigenen Apps. Weitere Informationen finden Sie unter: