คู่มือนี้แสดงวิธีการต่อไปนี้
- ตั้งค่าสภาพแวดล้อมการพัฒนาซอฟต์แวร์ให้ทำงานร่วมกับใบหน้าที่เพิ่มประสิทธิภาพ
- ใช้พื้นผิว 2 มิติและแนบวัตถุ 3 มิติกับใบหน้าที่ตรวจพบ
ข้อกำหนดเบื้องต้น
- Xcode เวอร์ชัน 13.0 ขึ้นไป
- Cocoapods 1.4.0 ขึ้นไปหากใช้ Cocoapods
- อุปกรณ์ Apple ที่ใช้ ARKit ได้ซึ่งใช้ iOS 12.0 ขึ้นไป (ต้องใช้เป้าหมายการติดตั้งใช้งาน iOS 12.0 ขึ้นไป)
การใช้ใบหน้าที่เพิ่มประสิทธิภาพ
ขั้นตอนต่อไปนี้ใช้แอปตัวอย่างใบหน้าที่เพิ่มประสิทธิภาพเพื่อแสดงงานที่สำคัญสำหรับการกำหนดค่าและสร้างแอปที่มีความสามารถของใบหน้าที่เพิ่มประสิทธิภาพ
ดาวน์โหลดแอปตัวอย่าง Augmented Faces
- โคลนหรือดาวน์โหลด ARCore SDK สําหรับ iOS เวอร์ชันล่าสุดจาก GitHub เพื่อดูโค้ดแอปตัวอย่าง
- เปิดหน้าต่าง Terminal หรือ Finder แล้วไปที่โฟลเดอร์ที่คุณโคลนหรือดาวน์โหลด SDK
- ดูโค้ดของแอปตัวอย่างได้ใน
/Examples/AugmentedFacesExample
เรียกใช้ pod install
แอป AugmentedFacesSample มาพร้อมกับ Podfile ที่กําหนดค่าไว้ล่วงหน้าด้วย ARCore SDK และ iOS เวอร์ชันที่คุณต้องการ วิธีติดตั้งการอ้างอิงเหล่านี้
- เปิดหน้าต่างเทอร์มินัลและเรียกใช้
pod install
จากโฟลเดอร์ที่มีโปรเจ็กต์ Xcode ซึ่งจะสร้างไฟล์*.xcworkspace
ที่คุณจะใช้ในภายหลังเพื่อสร้างและเรียกใช้แอป
สร้างและเรียกใช้แอป
- เปิดไฟล์
.xcworkspace
(ไม่ใช่.xcodeproj
) ของโปรเจ็กต์ใน Xcode - เปิดการตั้งค่าทั่วไปของเป้าหมายและเปลี่ยนตัวระบุกลุ่ม
- กด Cmd+R หรือคลิกเรียกใช้ ใช้อุปกรณ์จริงเพื่อทำงานกับ Augmented Faces แทนเครื่องจำลอง ควรเชื่อมต่ออุปกรณ์กับเครื่องพัฒนาซอฟต์แวร์ผ่าน USB
ลองใช้แอปตัวอย่าง
- สร้างและเรียกใช้แอปตัวอย่างจากไฟล์
.xcworkspace
เพื่อเปิดแอปในอุปกรณ์ - ให้สิทธิ์กล้องแก่แอปหากได้รับข้อความแจ้ง จากนั้น ARCore จะเริ่มตรวจจับใบหน้าที่มองเห็นได้ในกล้อง ขณะนี้ระบบจะตรวจจับใบหน้าได้ครั้งละ 1 ใบหน้าเท่านั้น
- ตรวจสอบว่ากล้องหันเข้าหาผู้ใช้
ขั้นตอนถัดไป
- ดูคู่มือนักพัฒนาแอปสำหรับใบหน้าที่เพิ่มประสิทธิภาพสำหรับ iOS เพื่อดูโค้ดแอปตัวอย่างและดูข้อมูลเพิ่มเติมเกี่ยวกับการใช้ใบหน้าที่เพิ่มประสิทธิภาพในแอปของคุณเอง
- ดูเอกสารอ้างอิง ARCore iOS API
- ดูวิดีโอต่อไปนี้เกี่ยวกับวิธีเริ่มต้นใช้งานใบหน้าที่เพิ่มประสิทธิภาพใน iOS