يمكنك استخدام حزمة تعلّم الآلة للتعرّف على الوجوه في الصور والفيديوهات.
| الميزة | غير مجمَّعة | مُجمَّعة |
|---|---|---|
| التنفيذ | يتم تنزيل النموذج ديناميكيًا من خلال "خدمات Google Play". | يتم ربط النموذج بشكل ثابت بتطبيقك في مدّة التصميم. |
| حجم التطبيق | زيادة في الحجم تبلغ 800 كيلوبايت تقريبًا | زيادة في الحجم تبلغ 6.9 ميغابايت تقريبًا |
| وقت التهيئة | قد يكون عليك الانتظار إلى أن يتم تنزيل النموذج قبل استخدامه لأول مرة. | النموذج متاح على الفور |
للتجربة:
- يمكنك تجربة التطبيق النموذجي للاطّلاع على مثال على استخدام واجهة برمجة التطبيقات هذه.
- يمكنك تجربة الرمز بنفسك من خلال الدرس التطبيقي حول الترميز.
قبل البدء
في ملف
build.gradleعلى مستوى المشروع، تأكَّد من تضمين مستودع Maven من Google في كلٍّ من قسمَيbuildscriptوallprojects.أضِف الاعتماديات لحزمة تعلّم الآلة على Android إلى ملف Gradle على مستوى التطبيق في وحدتك، والذي يكون عادةً
app/build.gradle. اختَر إحدى التبعيات التالية استنادًا إلى احتياجاتك:لتضمين النموذج مع تطبيقك:
dependencies { // ... // Use this dependency to bundle the model with your app implementation 'com.google.mlkit:face-detection:16.1.7' }لاستخدام النموذج في "خدمات Google Play":
dependencies { // ... // Use this dependency to use the dynamically downloaded model in Google Play Services implementation 'com.google.android.gms:play-services-mlkit-face-detection:17.1.0' }إذا اخترت استخدام النموذج في "خدمات Google Play"، يمكنك ضبط تطبيقك لتنزيل النموذج تلقائيًا على الجهاز بعد تثبيت تطبيقك من "متجر Play". لإجراء ذلك، أضِف الإعلان التالي إلى ملف
AndroidManifest.xmlفي تطبيقك:<application ...> ... <meta-data android:name="com.google.mlkit.vision.DEPENDENCIES" android:value="face" > <!-- To use multiple models: android:value="face,model2,model3" --> </application>يمكنك أيضًا التحقّق بشكل صريح من مدى توفّر النموذج وطلب تنزيله من خلال واجهة برمجة التطبيقات ModuleInstallClient في "خدمات Google Play".
إذا لم تفعِّل عمليات تنزيل النموذج في وقت التثبيت أو لم تطلب تنزيله بشكل صريح، يتم تنزيل النموذج في المرة الأولى التي تشغّل فيها أداة رصد الوجوه. لا تؤدي الطلبات التي تقدّمها قبل اكتمال التنزيل إلى ظهور أي نتائج.
إرشادات حول الصورة المُدخَلة
للتعرّف على الوجوه، عليك استخدام صورة بأبعاد 480 × 360 بكسل على الأقل. لكي تتمكّن حزمة تعلّم الآلة من التعرّف على الوجوه بدقة، يجب أن تحتوي الصور المُدخَلة على وجوه ممثّلة ببيانات بكسل كافية. بشكل عام، يجب أن يكون حجم كل وجه تريد التعرّف عليه في صورة 100 × 100 بكسل على الأقل. إذا أردت التعرّف على محيط الوجوه، تتطلّب حزمة تعلّم الآلة إدخال صور بدقة أعلى: يجب أن يكون حجم كل وجه 200 × 200 بكسل على الأقل.
إذا كنت ترصد الوجوه في تطبيق في الوقت الفعلي، قد تحتاج أيضًا إلى مراعاة الأبعاد الإجمالية للصور المُدخَلة. يمكن معالجة الصور الأصغر حجمًا بشكل أسرع، لذا لتقليل وقت الاستجابة، يمكنك التقاط الصور بدقة أقل، ولكن ضَع في اعتبارك متطلبات الدقة المذكورة أعلاه وتأكَّد من أنّ وجه الشخص يشغل أكبر مساحة ممكنة من الصورة. يمكنك أيضًا الاطّلاع على نصائح لتحسين الأداء في الوقت الفعلي.
يمكن أن يؤثر عدم وضوح الصورة أيضًا في الدقة. إذا لم تحصل على نتائج مقبولة ، اطلب من المستخدم إعادة التقاط الصورة.
يمكن أن يؤثر أيضًا اتجاه الوجه بالنسبة إلى الكاميرا في ملامح الوجه التي ترصدها حزمة تعلّم الآلة. يمكنك الاطّلاع على مفاهيم التعرّف على الوجوه.
1- ضبط أداة رصد الوجوه
قبل تطبيق ميزة التعرّف على الوجوه على صورة، إذا أردت تغيير أي من الإعدادات التلقائية لأداة رصد الوجوه، حدِّد هذه الإعدادات باستخدام عنصرFaceDetectorOptions.
يمكنك تغيير الإعدادات التالية:
| الإعدادات | |
|---|---|
setPerformanceMode
|
PERFORMANCE_MODE_FAST (تلقائي)
|
PERFORMANCE_MODE_ACCURATE
يمكنك اختيار السرعة أو الدقة عند رصد الوجوه. |
setLandmarkMode
|
LANDMARK_MODE_NONE (تلقائي)
|
LANDMARK_MODE_ALL
يمكنك اختيار محاولة تحديد "علامات" الوجه، مثل العينين والأذنين والأنف، الخدين والفم وما إلى ذلك. |
setContourMode
|
CONTOUR_MODE_NONE (تلقائي)
|
CONTOUR_MODE_ALL
يمكنك اختيار رصد محيط ملامح الوجه. يتم رصد المحيط للوجه الأكثر بروزًا فقط في الصورة. |
setClassificationMode
|
CLASSIFICATION_MODE_NONE (تلقائي)
|
CLASSIFICATION_MODE_ALL
يمكنك اختيار تصنيف الوجوه في فئات، مثل "مبتسم"، و "عيون مفتوحة". |
setMinFaceSize
|
float (تلقائي: 0.1f)
يضبط أصغر حجم مطلوب للوجه، ويتم التعبير عنه كنسبة عرض الرأس إلى عرض الصورة. |
enableTracking
|
false (تلقائي) | true
يمكنك اختيار تعيين معرّف للوجوه، ويمكن استخدامه لتتبُّع الوجوه في الصور. يُرجى العِلم أنّه عند تفعيل ميزة رصد المحيط، يتم رصد وجه واحد فقط، لذا لا يؤدي تتبّع تعابير الوجه إلى نتائج مفيدة. لهذا السبب ولتحسين سرعة الرصد، لا تفعِّل ميزتَي رصد المحيط وتتبُّع تعابير الوجه معًا. |
على سبيل المثال:
Kotlin
// High-accuracy landmark detection and face classification val highAccuracyOpts = FaceDetectorOptions.Builder() .setPerformanceMode(FaceDetectorOptions.PERFORMANCE_MODE_ACCURATE) .setLandmarkMode(FaceDetectorOptions.LANDMARK_MODE_ALL) .setClassificationMode(FaceDetectorOptions.CLASSIFICATION_MODE_ALL) .build() // Real-time contour detection val realTimeOpts = FaceDetectorOptions.Builder() .setContourMode(FaceDetectorOptions.CONTOUR_MODE_ALL) .build()
جافا
// High-accuracy landmark detection and face classification FaceDetectorOptions highAccuracyOpts = new FaceDetectorOptions.Builder() .setPerformanceMode(FaceDetectorOptions.PERFORMANCE_MODE_ACCURATE) .setLandmarkMode(FaceDetectorOptions.LANDMARK_MODE_ALL) .setClassificationMode(FaceDetectorOptions.CLASSIFICATION_MODE_ALL) .build(); // Real-time contour detection FaceDetectorOptions realTimeOpts = new FaceDetectorOptions.Builder() .setContourMode(FaceDetectorOptions.CONTOUR_MODE_ALL) .build();
2. إعداد الصورة المُدخَلة
لرصد الوجوه في صورة، أنشئ عنصرInputImage من Bitmap أو media.Image أو ByteBuffer أو صفيف بايت أو ملف على الجهاز. بعد ذلك، مرِّر عنصر InputImage إلى طريقة process في FaceDetector.
للتعرّف على الوجوه، عليك استخدام صورة بأبعاد 480 × 360 بكسل على الأقل. إذا كنت ترصد الوجوه في الوقت الفعلي، يمكن أن يساعد التقاط الإطارات بهذا الحد الأدنى من الدقة في تقليل وقت الاستجابة.
يمكنك إنشاء InputImage
عنصر من مصادر مختلفة، ويتم شرح كل منها أدناه.
استخدام media.Image
لإنشاء عنصر InputImage
من عنصر media.Image، مثلاً عند التقاط صورة من كاميرا الجهاز، مرِّر عنصر media.Image وتدوير الصورة إلى InputImage.fromMediaImage().
إذا كنت تستخدم مكتبة
CameraX، تحسب الفئتان OnImageCapturedListener و
ImageAnalysis.Analyzer قيمة التدوير
نيابةً عنك.
Kotlin
private class YourImageAnalyzer : ImageAnalysis.Analyzer { override fun analyze(imageProxy: ImageProxy) { val mediaImage = imageProxy.image if (mediaImage != null) { val image = InputImage.fromMediaImage(mediaImage, imageProxy.imageInfo.rotationDegrees) // Pass image to an ML Kit Vision API // ... } } }
جافا
private class YourAnalyzer implements ImageAnalysis.Analyzer { @Override public void analyze(ImageProxy imageProxy) { Image mediaImage = imageProxy.getImage(); if (mediaImage != null) { InputImage image = InputImage.fromMediaImage(mediaImage, imageProxy.getImageInfo().getRotationDegrees()); // Pass image to an ML Kit Vision API // ... } } }
إذا كنت لا تستخدم مكتبة كاميرا تمنحك درجة تدوير الصورة، يمكنك حسابها من درجة تدوير الجهاز واتجاه مستشعر الكاميرا في الجهاز:
Kotlin
private val ORIENTATIONS = SparseIntArray() init { ORIENTATIONS.append(Surface.ROTATION_0, 0) ORIENTATIONS.append(Surface.ROTATION_90, 90) ORIENTATIONS.append(Surface.ROTATION_180, 180) ORIENTATIONS.append(Surface.ROTATION_270, 270) } /** * Get the angle by which an image must be rotated given the device's current * orientation. */ @RequiresApi(api = Build.VERSION_CODES.LOLLIPOP) @Throws(CameraAccessException::class) private fun getRotationCompensation(cameraId: String, activity: Activity, isFrontFacing: Boolean): Int { // Get the device's current rotation relative to its "native" orientation. // Then, from the ORIENTATIONS table, look up the angle the image must be // rotated to compensate for the device's rotation. val deviceRotation = activity.windowManager.defaultDisplay.rotation var rotationCompensation = ORIENTATIONS.get(deviceRotation) // Get the device's sensor orientation. val cameraManager = activity.getSystemService(CAMERA_SERVICE) as CameraManager val sensorOrientation = cameraManager .getCameraCharacteristics(cameraId) .get(CameraCharacteristics.SENSOR_ORIENTATION)!! if (isFrontFacing) { rotationCompensation = (sensorOrientation + rotationCompensation) % 360 } else { // back-facing rotationCompensation = (sensorOrientation - rotationCompensation + 360) % 360 } return rotationCompensation }
جافا
private static final SparseIntArray ORIENTATIONS = new SparseIntArray(); static { ORIENTATIONS.append(Surface.ROTATION_0, 0); ORIENTATIONS.append(Surface.ROTATION_90, 90); ORIENTATIONS.append(Surface.ROTATION_180, 180); ORIENTATIONS.append(Surface.ROTATION_270, 270); } /** * Get the angle by which an image must be rotated given the device's current * orientation. */ @RequiresApi(api = Build.VERSION_CODES.LOLLIPOP) private int getRotationCompensation(String cameraId, Activity activity, boolean isFrontFacing) throws CameraAccessException { // Get the device's current rotation relative to its "native" orientation. // Then, from the ORIENTATIONS table, look up the angle the image must be // rotated to compensate for the device's rotation. int deviceRotation = activity.getWindowManager().getDefaultDisplay().getRotation(); int rotationCompensation = ORIENTATIONS.get(deviceRotation); // Get the device's sensor orientation. CameraManager cameraManager = (CameraManager) activity.getSystemService(CAMERA_SERVICE); int sensorOrientation = cameraManager .getCameraCharacteristics(cameraId) .get(CameraCharacteristics.SENSOR_ORIENTATION); if (isFrontFacing) { rotationCompensation = (sensorOrientation + rotationCompensation) % 360; } else { // back-facing rotationCompensation = (sensorOrientation - rotationCompensation + 360) % 360; } return rotationCompensation; }
بعد ذلك، مرِّر عنصر media.Image وقيمة درجة التدوير إلى InputImage.fromMediaImage()
Kotlin
val image = InputImage.fromMediaImage(mediaImage, rotation)
Java
InputImage image = InputImage.fromMediaImage(mediaImage, rotation);
استخدام معرّف URI لملف
لإنشاء عنصر InputImage
من معرّف URI لملف، مرِّر سياق التطبيق ومعرّف URI للملف إلى
InputImage.fromFilePath(). يكون ذلك مفيدًا عند استخدام هدف ACTION_GET_CONTENT لكي يُطلب من المستخدم اختيار صورة من تطبيق معرض الصور.
Kotlin
val image: InputImage try { image = InputImage.fromFilePath(context, uri) } catch (e: IOException) { e.printStackTrace() }
Java
InputImage image; try { image = InputImage.fromFilePath(context, uri); } catch (IOException e) { e.printStackTrace(); }
استخدام ByteBuffer أو ByteArray
لإنشاء عنصر InputImage
من ByteBuffer أو ByteArray، احسب أولاً درجة تدوير الصورة
كما هو موضّح سابقًا لإدخال media.Image.
بعد ذلك، أنشئ عنصر InputImage باستخدام المخزن المؤقت أو الصفيف، بالإضافة إلى ارتفاع الصورة وعرضها وتنسيق ترميز الألوان ودرجة التدوير:
Kotlin
val image = InputImage.fromByteBuffer( byteBuffer, /* image width */ 480, /* image height */ 360, rotationDegrees, InputImage.IMAGE_FORMAT_NV21 // or IMAGE_FORMAT_YV12 ) // Or: val image = InputImage.fromByteArray( byteArray, /* image width */ 480, /* image height */ 360, rotationDegrees, InputImage.IMAGE_FORMAT_NV21 // or IMAGE_FORMAT_YV12 )
جافا
InputImage image = InputImage.fromByteBuffer(byteBuffer, /* image width */ 480, /* image height */ 360, rotationDegrees, InputImage.IMAGE_FORMAT_NV21 // or IMAGE_FORMAT_YV12 ); // Or: InputImage image = InputImage.fromByteArray( byteArray, /* image width */480, /* image height */360, rotation, InputImage.IMAGE_FORMAT_NV21 // or IMAGE_FORMAT_YV12 );
استخدام Bitmap
لإنشاء عنصر InputImage
من عنصر Bitmap، استخدِم الإعلان التالي:
Kotlin
val image = InputImage.fromBitmap(bitmap, 0)
Java
InputImage image = InputImage.fromBitmap(bitmap, rotationDegree);
يتم تمثيل الصورة باستخدام عنصر Bitmap بالإضافة إلى درجات التدوير.
3. الحصول على نُسخة من FaceDetector
Kotlin
val detector = FaceDetection.getClient(options) // Or, to use the default option: // val detector = FaceDetection.getClient();
جافا
FaceDetector detector = FaceDetection.getClient(options); // Or use the default options: // FaceDetector detector = FaceDetection.getClient();
4. معالجة الصورة
مرِّر الصورة إلى طريقةprocess:
Kotlin
val result = detector.process(image) .addOnSuccessListener { faces -> // Task completed successfully // ... } .addOnFailureListener { e -> // Task failed with an exception // ... }
جافا
Task<List<Face>> result = detector.process(image) .addOnSuccessListener( new OnSuccessListener<List<Face>>() { @Override public void onSuccess(List<Face> faces) { // Task completed successfully // ... } }) .addOnFailureListener( new OnFailureListener() { @Override public void onFailure(@NonNull Exception e) { // Task failed with an exception // ... } });
5. الحصول على معلومات حول الوجوه التي تم رصدها
إذا نجحت عملية التعرّف على الوجوه، يتم تمرير قائمة بعناصرFace إلى مستمع النجاح. يمثّل كل عنصر Face وجهًا تم رصده في الصورة. لكل وجه، يمكنك الحصول على إحداثيات المربع المحيط به في الصورة المُدخَلة، بالإضافة إلى أي معلومات أخرى ضبطت أداة رصد الوجوه للعثور عليها. على سبيل المثال:
Kotlin
for (face in faces) { val bounds = face.boundingBox val rotY = face.headEulerAngleY // Head is rotated to the right rotY degrees val rotZ = face.headEulerAngleZ // Head is tilted sideways rotZ degrees // If landmark detection was enabled (mouth, ears, eyes, cheeks, and // nose available): val leftEar = face.getLandmark(FaceLandmark.LEFT_EAR) leftEar?.let { val leftEarPos = leftEar.position } // If contour detection was enabled: val leftEyeContour = face.getContour(FaceContour.LEFT_EYE)?.points val upperLipBottomContour = face.getContour(FaceContour.UPPER_LIP_BOTTOM)?.points // If classification was enabled: if (face.smilingProbability != null) { val smileProb = face.smilingProbability } if (face.rightEyeOpenProbability != null) { val rightEyeOpenProb = face.rightEyeOpenProbability } // If face tracking was enabled: if (face.trackingId != null) { val id = face.trackingId } }
جافا
for (Face face : faces) { Rect bounds = face.getBoundingBox(); float rotY = face.getHeadEulerAngleY(); // Head is rotated to the right rotY degrees float rotZ = face.getHeadEulerAngleZ(); // Head is tilted sideways rotZ degrees // If landmark detection was enabled (mouth, ears, eyes, cheeks, and // nose available): FaceLandmark leftEar = face.getLandmark(FaceLandmark.LEFT_EAR); if (leftEar != null) { PointF leftEarPos = leftEar.getPosition(); } // If contour detection was enabled: List<PointF> leftEyeContour = face.getContour(FaceContour.LEFT_EYE).getPoints(); List<PointF> upperLipBottomContour = face.getContour(FaceContour.UPPER_LIP_BOTTOM).getPoints(); // If classification was enabled: if (face.getSmilingProbability() != null) { float smileProb = face.getSmilingProbability(); } if (face.getRightEyeOpenProbability() != null) { float rightEyeOpenProb = face.getRightEyeOpenProbability(); } // If face tracking was enabled: if (face.getTrackingId() != null) { int id = face.getTrackingId(); } }
مثال على محيط الوجه
عند تفعيل ميزة رصد محيط الوجه، تحصل على قائمة بالنقاط لكل ملمح من ملامح الوجه التي تم رصدها. تمثّل هذه النقاط شكل الملمح. يمكنك الاطّلاع على مفاهيم التعرّف على الوجوه للحصول على تفاصيل حول كيفية تمثيل المحيط.
توضِّح الصورة التالية كيفية ربط هذه النقاط بالوجه، ويمكنك النقر على الصورة لتكبيرها:
التعرّف على الوجوه في الوقت الفعلي
إذا أردت استخدام ميزة التعرّف على الوجوه في تطبيق في الوقت الفعلي، اتّبِع هذه الإرشادات لتحقيق أفضل معدلات الإطارات:
اضبط أداة رصد الوجوه لاستخدام ميزة رصد محيط الوجه أو ميزة التصنيف ورصد العلامات، ولكن ليس كلتيهما:
رصد المحيط
رصد العلامات
التصنيف
رصد العلامات والتصنيف
رصد المحيط ورصد العلامات
رصد المحيط والتصنيف
رصد المحيط ورصد العلامات والتصنيففعِّل الوضع
FAST(مفعَّل تلقائيًا).يمكنك التقاط الصور بدقة أقل. ومع ذلك، ضَع في اعتبارك أيضًا متطلبات أبعاد الصورة في واجهة برمجة التطبيقات هذه.
Camera أو
camera2،
قلِّل عدد طلبات أداة الرصد. إذا أصبح إطار فيديو جديدًا
متاحًا أثناء تشغيل أداة الرصد، يمكنك حذف الإطار. يمكنك الاطّلاع على الفئة
VisionProcessorBase في نموذج التطبيق للبدء السريع للحصول على مثال.
CameraX، تأكَّد من ضبط استراتيجية الضغط الخلفي على القيمة التلقائية
ImageAnalysis.STRATEGY_KEEP_ONLY_LATEST.
يضمن ذلك تسليم صورة واحدة فقط للتحليل في كل مرة. إذا تم إنتاج المزيد من الصور عندما يكون المحلِّل مشغولاً، سيتم حذفها تلقائيًا ولن يتم وضعها في قائمة الانتظار لتسليمها. بعد إغلاق الصورة التي يتم تحليلها من خلال استدعاء
ImageProxy.close()، سيتم تسليم أحدث صورة تالية.
CameraSourcePreview و
GraphicOverlay في نموذج تطبيق البدء السريع للحصول على مثال.
ImageFormat.YUV_420_888 إذا كنت تستخدم واجهة برمجة التطبيقات Camera الأقدم، التقط الصور بتنسيق
ImageFormat.NV21