ใบหน้าเสริมความงาม

Augmented Faces ช่วยให้แอประบุภูมิภาคต่างๆ ของใบหน้าที่ตรวจพบโดยอัตโนมัติได้ และใช้ภูมิภาคเหล่านั้นเพื่อวางซ้อนเนื้อหา เช่น พื้นผิวและโมเดล ซึ่งตรงกับรูปร่างและภูมิภาคของใบหน้าแต่ละคนได้อย่างถูกต้อง

Augmented Faces ทํางานอย่างไร

ตัวอย่างแอป AugmentedFaces จะวางซ้อนลักษณะใบหน้าของสุนัขจิ้งจอกลงในใบหน้าของผู้ใช้โดยใช้ทั้งเนื้อหาของโมเดลและพื้นผิว

แบบจําลอง 3 มิติมีหูสุนัขจิ้งจอก 2 ตัวและจมูกสุนัขจิ้งจอก กระดูกชิ้นนี้ถือเป็นกระดูกแต่ละชิ้นที่แยกกันได้ตามภูมิภาคของใบหน้าที่มันแนบอยู่

พื้นผิวประกอบด้วยอายแชโดว์ กระ และสีอื่นๆ ดังนี้

เมื่อคุณเรียกใช้แอปตัวอย่าง แอปจะเรียก API ให้ตรวจจับใบหน้าและวางซ้อนทั้งพื้นผิวและโมเดลลงบนใบหน้า

ระบุตาข่ายเพิ่ม Augmented Face

ARCore จะซ้อนทับพื้นผิวและโมเดล 3 มิติบนใบหน้าที่ตรวจพบ โดย AR จะมอบภูมิภาคที่ตรวจพบและตาข่ายเสริม ตาข่ายนี้นําเสนอใบหน้าเสมือนจริงและประกอบด้วยจุดยอดมุม ใบหน้า และตรงกลางของศีรษะของผู้ใช้ โปรดทราบว่าการวางแนวของ Mesh นั้นแตกต่างจาก Sceneform ทุกประการ

เมื่อกล้องตรวจพบใบหน้าของผู้ใช้ ARCore จะดําเนินการขั้นตอนเหล่านี้เพื่อสร้างตาข่าย Augmented, โพสท่าที่อยู่ตรงกลางและท่าทาง

  1. โดยจะระบุท่าทางกลางและตาข่าย

    • ท่าทางกลางจมูกเป็นจุดศูนย์กลางของศีรษะของผู้ใช้ (หรือที่เรียกว่ากะโหลกศีรษะ)

    • ตาข่ายประกอบด้วยจุดยอดมุมหลายร้อยรูปที่ประกอบขึ้นเป็นใบหน้า และมีการกําหนดตําแหน่งให้สัมพันธ์กับตําแหน่งตรงกลาง

  2. คลาส AugmentedFace ใช้ Mesh และโพสท่าที่อยู่ตรงกลางเพื่อระบุท่าทางใบหน้าของใบหน้าในใบหน้าของผู้ใช้ ภูมิภาคเหล่านี้ ได้แก่

    • หน้าผากซ้าย (LEFT_FOREHEAD)
    • หน้าผากขวา (RIGHT_FOREHEAD)
    • ปลายจมูก (NOSE_TIP)

องค์ประกอบเหล่านี้ ได้แก่ การโพสท่าที่ด้านหน้า ตาข่าย และบริเวณของใบหน้าประกอบกันเป็นตาข่าย Augmented Reality และ AugmentedFace API ใช้เป็นตําแหน่งและภูมิภาคเพื่อวางเนื้อหาในแอป

ขั้นตอนถัดไป

เริ่มใช้ Augmented Faces ในแอปของคุณเอง ดูข้อมูลเพิ่มเติมได้ในหัวข้อ