Wprowadzenie do funkcji Augmented Faces

Przewodniki dotyczące poszczególnych platform

Interfejs Augmented Faces API umożliwia renderowanie zasobów na twarzach ludzi bez użycia specjalistycznego sprzętu. Udostępnia ona punkty charakterystyczne, które umożliwiają aplikacji automatyczne rozpoznawanie różnych obszarów wykrytej twarzy. Aplikacja może następnie używać tych regionów do nakładania zasobów w sposób, który odpowiednio pasuje do konturów poszczególnych twarzy.

Przypadki użycia

Wirtualna twarz to bogata oferta zastosowań, od testowania kosmetyków i akcesoriów po filtry twarzy i efekty dostępne dla znajomych. Możesz na przykład użyć modeli 3D i tekstury, aby nałożyć cechy lisa na twarz użytkownika.

Model składa się z dwóch lisów i nosa lisa. Każdy z nich to osobny element, który można przesuwać pojedynczo, aby podążał za obszarem twarzy, do którego jest przymocowany.

Tekstura zawiera cień do powiek, piegi i inne kolory.

W czasie działania interfejs Augmented Faces API wykrywa twarz użytkownika i nakłada na nią zarówno teksturę, jak i modele.

Części twarzy rozszerzonej

Interfejs Augmented Faces API udostępnia pozycję środkową, 3 pozycje regionów i siatkę twarzy 3D.

Pozycja środkowa

Pozycja środkowa znajduje się za nosem i znajduje się na środku głowy użytkownika. Używaj go do renderowania zasobów, takich jak kapelusz na głowie.

Pozycje regionalne

Znajdują się one na lewym i prawym czole oraz na czubku nosa. Oznaczają one ważne części twarzy użytkownika. Używaj ich do renderowania zasobów w nosie lub w pobliżu uszu.

Siatka na twarz

Gęsta siatka 3D o rozdzielczości 468 punktów pozwala na malowanie dostosowalnych, szczegółowych tekstur, które dokładnie odwzorowują kształt twarzy – na przykład w przypadku nakładania wirtualnych okularów na określony obszar nosa. Siatka gromadzi wystarczająco szczegółowe informacje 3D, które można łatwo wyrenderować.