Wprowadzenie do funkcji Augmented Faces

Przewodniki dotyczące poszczególnych platform

Interfejs Augmented Faces API umożliwia renderowanie zasobów na twarzach ludzi bez użycia specjalistycznego sprzętu. Dostarcza on punkty charakterystyczne, które umożliwiają aplikacji automatyczne rozpoznawanie różnych obszarów wykrytej twarzy. Aplikacja może następnie używać tych obszarów do nakładania zasobów w sposób, który prawidłowo dopasowuje się do konturów twarzy.

Przypadki użycia

Rozszerzona rzeczywistość oparta na twarzy otwiera szeroki wachlarz zastosowań, od wirtualnego przymierzania kosmetyków i akcesoriów po filtry i efekty na twarz, z których użytkownicy mogą korzystać ze znajomymi. Możesz na przykład użyć modeli 3D i tekstury, aby nałożyć na twarz użytkownika cechy lisa.

Model składa się z 2 uszu i nosa lisa. Każdy z nich to osobna kość którą można przesuwać niezależnie, aby podążała za obszarem twarzy, do którego jest przymocowana.

Tekstura składa się z cieni do powiek, piegów i innych kolorów.

Podczas działania interfejs Augmented Faces API wykrywa twarz użytkownika i nakłada na nią teksturę oraz modele.

Elementy rozszerzonej twarzy

Interfejs Augmented Faces API udostępnia pozę środkową, 3 pozycje regionów i siatkę twarzy 3D.

Poza środkowa

Poza środkowa znajduje się za nosem i wyznacza środek głowy użytkownika. Użyj jej do renderowania zasobów, takich jak kapelusz na głowie.

Pozycje regionów

Pozycje regionów znajdują się na lewym i prawym czole oraz na czubku nosa i wyznaczają ważne części twarzy użytkownika. Użyj ich do renderowania zasobów na nosie lub wokół uszu.

Siatka twarzy

Gęsta siatka twarzy 3D z 468 punktami umożliwia malowanie szczegółowych tekstur, które dokładnie podążają za twarzą, np. podczas nakładania wirtualnych okularów za konkretną częścią nosa. Siatka zbiera wystarczająco dużo szczegółowych informacji 3D, aby można było łatwo renderować ten wirtualny obraz.