التعرّف على الوجوه باستخدام حزمة تعلّم الآلة على Android

يمكنك استخدام حزمة تعلّم الآلة للتعرّف على الوجوه في الصور والفيديوهات.

الميزةغير مجمَّعةمُجمَّعة
التنفيذيتم تنزيل النموذج ديناميكيًا من خلال "خدمات Google Play".يتم ربط النموذج بشكل ثابت بتطبيقك في مدّة التصميم.
حجم التطبيقزيادة في الحجم تبلغ 800 كيلوبايت تقريبًازيادة في الحجم تبلغ 6.9 ميغابايت تقريبًا
وقت التهيئةقد يكون عليك الانتظار إلى أن يتم تنزيل النموذج قبل استخدامه لأول مرة.النموذج متاح على الفور

للتجربة:

قبل البدء

  1. في ملف build.gradle على مستوى المشروع، تأكَّد من تضمين مستودع Maven من Google في كلٍّ من قسمَي buildscript وallprojects.

  2. أضِف الاعتماديات لحزمة تعلّم الآلة على Android إلى ملف Gradle على مستوى التطبيق في وحدتك، والذي يكون عادةً app/build.gradle. اختَر إحدى التبعيات التالية استنادًا إلى احتياجاتك:

    لتضمين النموذج مع تطبيقك:

    dependencies {
      // ...
      // Use this dependency to bundle the model with your app
      implementation 'com.google.mlkit:face-detection:16.1.7'
    }
    

    لاستخدام النموذج في "خدمات Google Play":

    dependencies {
      // ...
      // Use this dependency to use the dynamically downloaded model in Google Play Services
      implementation 'com.google.android.gms:play-services-mlkit-face-detection:17.1.0'
    }
    
  3. إذا اخترت استخدام النموذج في "خدمات Google Play"، يمكنك ضبط تطبيقك لتنزيل النموذج تلقائيًا على الجهاز بعد تثبيت تطبيقك من "متجر Play". لإجراء ذلك، أضِف الإعلان التالي إلى ملف AndroidManifest.xml في تطبيقك:

    <application ...>
          ...
          <meta-data
              android:name="com.google.mlkit.vision.DEPENDENCIES"
              android:value="face" >
          <!-- To use multiple models: android:value="face,model2,model3" -->
    </application>
    

    يمكنك أيضًا التحقّق بشكل صريح من مدى توفّر النموذج وطلب تنزيله من خلال واجهة برمجة التطبيقات ModuleInstallClient في "خدمات Google Play".

    إذا لم تفعِّل عمليات تنزيل النموذج في وقت التثبيت أو لم تطلب تنزيله بشكل صريح، يتم تنزيل النموذج في المرة الأولى التي تشغّل فيها أداة رصد الوجوه. لا تؤدي الطلبات التي تقدّمها قبل اكتمال التنزيل إلى ظهور أي نتائج.

إرشادات حول الصورة المُدخَلة

للتعرّف على الوجوه، عليك استخدام صورة بأبعاد 480 × 360 بكسل على الأقل. لكي تتمكّن حزمة تعلّم الآلة من التعرّف على الوجوه بدقة، يجب أن تحتوي الصور المُدخَلة على وجوه ممثّلة ببيانات بكسل كافية. بشكل عام، يجب أن يكون حجم كل وجه تريد التعرّف عليه في صورة 100 × 100 بكسل على الأقل. إذا أردت التعرّف على محيط الوجوه، تتطلّب حزمة تعلّم الآلة إدخال صور بدقة أعلى: يجب أن يكون حجم كل وجه 200 × 200 بكسل على الأقل.

إذا كنت ترصد الوجوه في تطبيق في الوقت الفعلي، قد تحتاج أيضًا إلى مراعاة الأبعاد الإجمالية للصور المُدخَلة. يمكن معالجة الصور الأصغر حجمًا بشكل أسرع، لذا لتقليل وقت الاستجابة، يمكنك التقاط الصور بدقة أقل، ولكن ضَع في اعتبارك متطلبات الدقة المذكورة أعلاه وتأكَّد من أنّ وجه الشخص يشغل أكبر مساحة ممكنة من الصورة. يمكنك أيضًا الاطّلاع على نصائح لتحسين الأداء في الوقت الفعلي.

يمكن أن يؤثر عدم وضوح الصورة أيضًا في الدقة. إذا لم تحصل على نتائج مقبولة ، اطلب من المستخدم إعادة التقاط الصورة.

يمكن أن يؤثر أيضًا اتجاه الوجه بالنسبة إلى الكاميرا في ملامح الوجه التي ترصدها حزمة تعلّم الآلة. يمكنك الاطّلاع على مفاهيم التعرّف على الوجوه.

1- ضبط أداة رصد الوجوه

قبل تطبيق ميزة التعرّف على الوجوه على صورة، إذا أردت تغيير أي من الإعدادات التلقائية لأداة رصد الوجوه، حدِّد هذه الإعدادات باستخدام عنصر FaceDetectorOptions. يمكنك تغيير الإعدادات التالية:

الإعدادات
setPerformanceMode PERFORMANCE_MODE_FAST (تلقائي) | PERFORMANCE_MODE_ACCURATE

يمكنك اختيار السرعة أو الدقة عند رصد الوجوه.

setLandmarkMode LANDMARK_MODE_NONE (تلقائي) | LANDMARK_MODE_ALL

يمكنك اختيار محاولة تحديد "علامات" الوجه، مثل العينين والأذنين والأنف، الخدين والفم وما إلى ذلك.

setContourMode CONTOUR_MODE_NONE (تلقائي) | CONTOUR_MODE_ALL

يمكنك اختيار رصد محيط ملامح الوجه. يتم رصد المحيط للوجه الأكثر بروزًا فقط في الصورة.

setClassificationMode CLASSIFICATION_MODE_NONE (تلقائي) | CLASSIFICATION_MODE_ALL

يمكنك اختيار تصنيف الوجوه في فئات، مثل "مبتسم"، و "عيون مفتوحة".

setMinFaceSize float (تلقائي: 0.1f)

يضبط أصغر حجم مطلوب للوجه، ويتم التعبير عنه كنسبة عرض الرأس إلى عرض الصورة.

enableTracking false (تلقائي) | true

يمكنك اختيار تعيين معرّف للوجوه، ويمكن استخدامه لتتبُّع الوجوه في الصور.

يُرجى العِلم أنّه عند تفعيل ميزة رصد المحيط، يتم رصد وجه واحد فقط، لذا لا يؤدي تتبّع تعابير الوجه إلى نتائج مفيدة. لهذا السبب ولتحسين سرعة الرصد، لا تفعِّل ميزتَي رصد المحيط وتتبُّع تعابير الوجه معًا.

على سبيل المثال:

Kotlin

// High-accuracy landmark detection and face classification
val highAccuracyOpts = FaceDetectorOptions.Builder()
        .setPerformanceMode(FaceDetectorOptions.PERFORMANCE_MODE_ACCURATE)
        .setLandmarkMode(FaceDetectorOptions.LANDMARK_MODE_ALL)
        .setClassificationMode(FaceDetectorOptions.CLASSIFICATION_MODE_ALL)
        .build()

// Real-time contour detection
val realTimeOpts = FaceDetectorOptions.Builder()
        .setContourMode(FaceDetectorOptions.CONTOUR_MODE_ALL)
        .build()

جافا

// High-accuracy landmark detection and face classification
FaceDetectorOptions highAccuracyOpts =
        new FaceDetectorOptions.Builder()
                .setPerformanceMode(FaceDetectorOptions.PERFORMANCE_MODE_ACCURATE)
                .setLandmarkMode(FaceDetectorOptions.LANDMARK_MODE_ALL)
                .setClassificationMode(FaceDetectorOptions.CLASSIFICATION_MODE_ALL)
                .build();

// Real-time contour detection
FaceDetectorOptions realTimeOpts =
        new FaceDetectorOptions.Builder()
                .setContourMode(FaceDetectorOptions.CONTOUR_MODE_ALL)
                .build();

‫2. إعداد الصورة المُدخَلة

لرصد الوجوه في صورة، أنشئ عنصر InputImage من Bitmap أو media.Image أو ByteBuffer أو صفيف بايت أو ملف على الجهاز. بعد ذلك، مرِّر عنصر InputImage إلى طريقة process في FaceDetector.

للتعرّف على الوجوه، عليك استخدام صورة بأبعاد 480 × 360 بكسل على الأقل. إذا كنت ترصد الوجوه في الوقت الفعلي، يمكن أن يساعد التقاط الإطارات بهذا الحد الأدنى من الدقة في تقليل وقت الاستجابة.

يمكنك إنشاء InputImage عنصر من مصادر مختلفة، ويتم شرح كل منها أدناه.

استخدام media.Image

لإنشاء عنصر InputImage من عنصر media.Image، مثلاً عند التقاط صورة من كاميرا الجهاز، مرِّر عنصر media.Image وتدوير الصورة إلى InputImage.fromMediaImage().

إذا كنت تستخدم مكتبة CameraX، تحسب الفئتان OnImageCapturedListener و ImageAnalysis.Analyzer قيمة التدوير نيابةً عنك.

Kotlin

private class YourImageAnalyzer : ImageAnalysis.Analyzer {

    override fun analyze(imageProxy: ImageProxy) {
        val mediaImage = imageProxy.image
        if (mediaImage != null) {
            val image = InputImage.fromMediaImage(mediaImage, imageProxy.imageInfo.rotationDegrees)
            // Pass image to an ML Kit Vision API
            // ...
        }
    }
}

جافا

private class YourAnalyzer implements ImageAnalysis.Analyzer {

    @Override
    public void analyze(ImageProxy imageProxy) {
        Image mediaImage = imageProxy.getImage();
        if (mediaImage != null) {
          InputImage image =
                InputImage.fromMediaImage(mediaImage, imageProxy.getImageInfo().getRotationDegrees());
          // Pass image to an ML Kit Vision API
          // ...
        }
    }
}

إذا كنت لا تستخدم مكتبة كاميرا تمنحك درجة تدوير الصورة، يمكنك حسابها من درجة تدوير الجهاز واتجاه مستشعر الكاميرا في الجهاز:

Kotlin

private val ORIENTATIONS = SparseIntArray()

init {
    ORIENTATIONS.append(Surface.ROTATION_0, 0)
    ORIENTATIONS.append(Surface.ROTATION_90, 90)
    ORIENTATIONS.append(Surface.ROTATION_180, 180)
    ORIENTATIONS.append(Surface.ROTATION_270, 270)
}

/**
 * Get the angle by which an image must be rotated given the device's current
 * orientation.
 */
@RequiresApi(api = Build.VERSION_CODES.LOLLIPOP)
@Throws(CameraAccessException::class)
private fun getRotationCompensation(cameraId: String, activity: Activity, isFrontFacing: Boolean): Int {
    // Get the device's current rotation relative to its "native" orientation.
    // Then, from the ORIENTATIONS table, look up the angle the image must be
    // rotated to compensate for the device's rotation.
    val deviceRotation = activity.windowManager.defaultDisplay.rotation
    var rotationCompensation = ORIENTATIONS.get(deviceRotation)

    // Get the device's sensor orientation.
    val cameraManager = activity.getSystemService(CAMERA_SERVICE) as CameraManager
    val sensorOrientation = cameraManager
            .getCameraCharacteristics(cameraId)
            .get(CameraCharacteristics.SENSOR_ORIENTATION)!!

    if (isFrontFacing) {
        rotationCompensation = (sensorOrientation + rotationCompensation) % 360
    } else { // back-facing
        rotationCompensation = (sensorOrientation - rotationCompensation + 360) % 360
    }
    return rotationCompensation
}

جافا

private static final SparseIntArray ORIENTATIONS = new SparseIntArray();
static {
    ORIENTATIONS.append(Surface.ROTATION_0, 0);
    ORIENTATIONS.append(Surface.ROTATION_90, 90);
    ORIENTATIONS.append(Surface.ROTATION_180, 180);
    ORIENTATIONS.append(Surface.ROTATION_270, 270);
}

/**
 * Get the angle by which an image must be rotated given the device's current
 * orientation.
 */
@RequiresApi(api = Build.VERSION_CODES.LOLLIPOP)
private int getRotationCompensation(String cameraId, Activity activity, boolean isFrontFacing)
        throws CameraAccessException {
    // Get the device's current rotation relative to its "native" orientation.
    // Then, from the ORIENTATIONS table, look up the angle the image must be
    // rotated to compensate for the device's rotation.
    int deviceRotation = activity.getWindowManager().getDefaultDisplay().getRotation();
    int rotationCompensation = ORIENTATIONS.get(deviceRotation);

    // Get the device's sensor orientation.
    CameraManager cameraManager = (CameraManager) activity.getSystemService(CAMERA_SERVICE);
    int sensorOrientation = cameraManager
            .getCameraCharacteristics(cameraId)
            .get(CameraCharacteristics.SENSOR_ORIENTATION);

    if (isFrontFacing) {
        rotationCompensation = (sensorOrientation + rotationCompensation) % 360;
    } else { // back-facing
        rotationCompensation = (sensorOrientation - rotationCompensation + 360) % 360;
    }
    return rotationCompensation;
}

بعد ذلك، مرِّر عنصر media.Image وقيمة درجة التدوير إلى InputImage.fromMediaImage()

Kotlin

val image = InputImage.fromMediaImage(mediaImage, rotation)

Java

InputImage image = InputImage.fromMediaImage(mediaImage, rotation);

استخدام معرّف URI لملف

لإنشاء عنصر InputImage من معرّف URI لملف، مرِّر سياق التطبيق ومعرّف URI للملف إلى InputImage.fromFilePath(). يكون ذلك مفيدًا عند استخدام هدف ACTION_GET_CONTENT لكي يُطلب من المستخدم اختيار صورة من تطبيق معرض الصور.

Kotlin

val image: InputImage
try {
    image = InputImage.fromFilePath(context, uri)
} catch (e: IOException) {
    e.printStackTrace()
}

Java

InputImage image;
try {
    image = InputImage.fromFilePath(context, uri);
} catch (IOException e) {
    e.printStackTrace();
}

استخدام ByteBuffer أو ByteArray

لإنشاء عنصر InputImage من ByteBuffer أو ByteArray، احسب أولاً درجة تدوير الصورة كما هو موضّح سابقًا لإدخال media.Image. بعد ذلك، أنشئ عنصر InputImage باستخدام المخزن المؤقت أو الصفيف، بالإضافة إلى ارتفاع الصورة وعرضها وتنسيق ترميز الألوان ودرجة التدوير:

Kotlin

val image = InputImage.fromByteBuffer(
        byteBuffer,
        /* image width */ 480,
        /* image height */ 360,
        rotationDegrees,
        InputImage.IMAGE_FORMAT_NV21 // or IMAGE_FORMAT_YV12
)
// Or:
val image = InputImage.fromByteArray(
        byteArray,
        /* image width */ 480,
        /* image height */ 360,
        rotationDegrees,
        InputImage.IMAGE_FORMAT_NV21 // or IMAGE_FORMAT_YV12
)

جافا

InputImage image = InputImage.fromByteBuffer(byteBuffer,
        /* image width */ 480,
        /* image height */ 360,
        rotationDegrees,
        InputImage.IMAGE_FORMAT_NV21 // or IMAGE_FORMAT_YV12
);
// Or:
InputImage image = InputImage.fromByteArray(
        byteArray,
        /* image width */480,
        /* image height */360,
        rotation,
        InputImage.IMAGE_FORMAT_NV21 // or IMAGE_FORMAT_YV12
);

استخدام Bitmap

لإنشاء عنصر InputImage من عنصر Bitmap، استخدِم الإعلان التالي:

Kotlin

val image = InputImage.fromBitmap(bitmap, 0)

Java

InputImage image = InputImage.fromBitmap(bitmap, rotationDegree);

يتم تمثيل الصورة باستخدام عنصر Bitmap بالإضافة إلى درجات التدوير.

‫3. الحصول على نُسخة من FaceDetector

Kotlin

val detector = FaceDetection.getClient(options)
// Or, to use the default option:
// val detector = FaceDetection.getClient();

جافا

FaceDetector detector = FaceDetection.getClient(options);
// Or use the default options:
// FaceDetector detector = FaceDetection.getClient();

‫4. معالجة الصورة

مرِّر الصورة إلى طريقة process:

Kotlin

val result = detector.process(image)
        .addOnSuccessListener { faces ->
            // Task completed successfully
            // ...
        }
        .addOnFailureListener { e ->
            // Task failed with an exception
            // ...
        }

جافا

Task<List<Face>> result =
        detector.process(image)
                .addOnSuccessListener(
                        new OnSuccessListener<List<Face>>() {
                            @Override
                            public void onSuccess(List<Face> faces) {
                                // Task completed successfully
                                // ...
                            }
                        })
                .addOnFailureListener(
                        new OnFailureListener() {
                            @Override
                            public void onFailure(@NonNull Exception e) {
                                // Task failed with an exception
                                // ...
                            }
                        });

‫5. الحصول على معلومات حول الوجوه التي تم رصدها

إذا نجحت عملية التعرّف على الوجوه، يتم تمرير قائمة بعناصر Face إلى مستمع النجاح. يمثّل كل عنصر Face وجهًا تم رصده في الصورة. لكل وجه، يمكنك الحصول على إحداثيات المربع المحيط به في الصورة المُدخَلة، بالإضافة إلى أي معلومات أخرى ضبطت أداة رصد الوجوه للعثور عليها. على سبيل المثال:

Kotlin

for (face in faces) {
    val bounds = face.boundingBox
    val rotY = face.headEulerAngleY // Head is rotated to the right rotY degrees
    val rotZ = face.headEulerAngleZ // Head is tilted sideways rotZ degrees

    // If landmark detection was enabled (mouth, ears, eyes, cheeks, and
    // nose available):
    val leftEar = face.getLandmark(FaceLandmark.LEFT_EAR)
    leftEar?.let {
        val leftEarPos = leftEar.position
    }

    // If contour detection was enabled:
    val leftEyeContour = face.getContour(FaceContour.LEFT_EYE)?.points
    val upperLipBottomContour = face.getContour(FaceContour.UPPER_LIP_BOTTOM)?.points

    // If classification was enabled:
    if (face.smilingProbability != null) {
        val smileProb = face.smilingProbability
    }
    if (face.rightEyeOpenProbability != null) {
        val rightEyeOpenProb = face.rightEyeOpenProbability
    }

    // If face tracking was enabled:
    if (face.trackingId != null) {
        val id = face.trackingId
    }
}

جافا

for (Face face : faces) {
    Rect bounds = face.getBoundingBox();
    float rotY = face.getHeadEulerAngleY();  // Head is rotated to the right rotY degrees
    float rotZ = face.getHeadEulerAngleZ();  // Head is tilted sideways rotZ degrees

    // If landmark detection was enabled (mouth, ears, eyes, cheeks, and
    // nose available):
    FaceLandmark leftEar = face.getLandmark(FaceLandmark.LEFT_EAR);
    if (leftEar != null) {
        PointF leftEarPos = leftEar.getPosition();
    }

    // If contour detection was enabled:
    List<PointF> leftEyeContour =
            face.getContour(FaceContour.LEFT_EYE).getPoints();
    List<PointF> upperLipBottomContour =
            face.getContour(FaceContour.UPPER_LIP_BOTTOM).getPoints();

    // If classification was enabled:
    if (face.getSmilingProbability() != null) {
        float smileProb = face.getSmilingProbability();
    }
    if (face.getRightEyeOpenProbability() != null) {
        float rightEyeOpenProb = face.getRightEyeOpenProbability();
    }

    // If face tracking was enabled:
    if (face.getTrackingId() != null) {
        int id = face.getTrackingId();
    }
}

مثال على محيط الوجه

عند تفعيل ميزة رصد محيط الوجه، تحصل على قائمة بالنقاط لكل ملمح من ملامح الوجه التي تم رصدها. تمثّل هذه النقاط شكل الملمح. يمكنك الاطّلاع على مفاهيم التعرّف على الوجوه للحصول على تفاصيل حول كيفية تمثيل المحيط.

توضِّح الصورة التالية كيفية ربط هذه النقاط بالوجه، ويمكنك النقر على الصورة لتكبيرها:

مثال على شبكة محيط الوجه التي تم رصدها

التعرّف على الوجوه في الوقت الفعلي

إذا أردت استخدام ميزة التعرّف على الوجوه في تطبيق في الوقت الفعلي، اتّبِع هذه الإرشادات لتحقيق أفضل معدلات الإطارات:

  • اضبط أداة رصد الوجوه لاستخدام ميزة رصد محيط الوجه أو ميزة التصنيف ورصد العلامات، ولكن ليس كلتيهما:

    رصد المحيط
    رصد العلامات
    التصنيف
    رصد العلامات والتصنيف
    رصد المحيط ورصد العلامات
    رصد المحيط والتصنيف
    رصد المحيط ورصد العلامات والتصنيف

  • فعِّل الوضع FAST (مفعَّل تلقائيًا).

  • يمكنك التقاط الصور بدقة أقل. ومع ذلك، ضَع في اعتبارك أيضًا متطلبات أبعاد الصورة في واجهة برمجة التطبيقات هذه.

  • إذا كنت تستخدم واجهة برمجة التطبيقات Camera أو camera2، قلِّل عدد طلبات أداة الرصد. إذا أصبح إطار فيديو جديدًا متاحًا أثناء تشغيل أداة الرصد، يمكنك حذف الإطار. يمكنك الاطّلاع على الفئة VisionProcessorBase في نموذج التطبيق للبدء السريع للحصول على مثال.
  • إذا كنت تستخدم واجهة برمجة التطبيقات CameraX، تأكَّد من ضبط استراتيجية الضغط الخلفي على القيمة التلقائية ImageAnalysis.STRATEGY_KEEP_ONLY_LATEST. يضمن ذلك تسليم صورة واحدة فقط للتحليل في كل مرة. إذا تم إنتاج المزيد من الصور عندما يكون المحلِّل مشغولاً، سيتم حذفها تلقائيًا ولن يتم وضعها في قائمة الانتظار لتسليمها. بعد إغلاق الصورة التي يتم تحليلها من خلال استدعاء ImageProxy.close()، سيتم تسليم أحدث صورة تالية.
  • إذا كنت تستخدم ناتج أداة الرصد لتراكب الرسومات على الصورة المُدخَلة، احصل أولاً على النتيجة من حزمة تعلّم الآلة، ثم اعرض الصورة والتراكب في خطوة واحدة. يتم العرض على سطح العرض مرة واحدة فقط لكل إطار مُدخَل. يمكنك الاطّلاع على الفئتَين CameraSourcePreview و GraphicOverlay في نموذج تطبيق البدء السريع للحصول على مثال.
  • إذا كنت تستخدم واجهة برمجة التطبيقات Camera2، التقط الصور بتنسيق ImageFormat.YUV_420_888 إذا كنت تستخدم واجهة برمجة التطبيقات Camera الأقدم، التقط الصور بتنسيق ImageFormat.NV21