Оптимизируйте свои подборки
Сохраняйте и классифицируйте контент в соответствии со своими настройками.
API сегментации селфи ML Kit позволяет разработчикам легко отделять фон от пользователей внутри сцены и сосредоточиться на том, что важно. Добавление интересных эффектов к селфи или размещение пользователей в интересном фоновом окружении еще никогда не было таким простым.
API сегментации селфи принимает входное изображение и создает выходную маску. По умолчанию маска будет того же размера, что и входное изображение. Каждому пикселю маски присваивается число с плавающей точкой в диапазоне [0,0, 1,0]. Чем ближе число к 1,0, тем выше уверенность в том, что пиксель представляет человека, и наоборот.
API работает со статическими изображениями и вариантами использования живого видео. Во время живого видео API будет использовать выходные данные предыдущих кадров для получения более плавных результатов сегментации.
Кроссплатформенная поддержка. Наслаждайтесь одинаковыми возможностями как на Android, так и на iOS.
Поддержка одного или нескольких пользователей. Легко сегментируйте нескольких людей или только одного человека без изменения каких-либо настроек.
Поддержка всего тела и половины тела. API может сегментировать портреты и видео как в полный рост, так и в верхнюю часть тела.
Результаты в реальном времени. API основан на процессоре и работает в режиме реального времени на большинстве современных смартфонов (20 кадров в секунду+) и хорошо работает как с потоками неподвижных изображений, так и с видеопотоками в реальном времени.
Поддержка маски необработанного размера. По умолчанию выходные данные маски сегментации имеют тот же размер, что и входное изображение. API также поддерживает опцию, которая вместо этого создает маску с выходным размером модели (например, 256x256). Этот параметр упрощает применение индивидуальной логики изменения масштаба или уменьшает задержку, если изменение масштаба до размера входного изображения не требуется для вашего варианта использования.
Примеры результатов
Входное изображение
Выходное изображение + маска
Под капотом
Для получения дополнительной информации о том, как была обучена модель, и о наших методах обеспечения справедливости в сфере ОД, ознакомьтесь с нашей карточкой модели .
[null,null,["Последнее обновление: 2025-07-24 UTC."],[[["\u003cp\u003eThe Selfie Segmentation API generates a mask identifying people in images and videos, with pixel values indicating confidence levels.\u003c/p\u003e\n"],["\u003cp\u003eThis API is cross-platform, supports single or multiple users, handles full and half body portraits, and provides real-time results.\u003c/p\u003e\n"],["\u003cp\u003eThe API is in beta and subject to change.\u003c/p\u003e\n"],["\u003cp\u003eDevelopers can access platform-specific implementation details via provided links for iOS and Android.\u003c/p\u003e\n"]]],[],null,["# Selfie segmentation\n\n| This API is offered in beta, and is not subject to any SLA or deprecation policy. Changes may be made to this API that break backward compatibility.\n\nML Kit's selfie segmentation API allows developers to easily separate the background from users within a scene and focus on what matters. Adding cool effects to selfies or inserting your users into interesting background environments has never been easier.\n\nThe selfie segmentation API takes an input image and produces an output mask. By\ndefault, the mask will be the same size as the input image. Each pixel of the\nmask is assigned a float number that has a range between \\[0.0, 1.0\\].\nThe closer the number is to 1.0, the higher the confidence that the pixel\nrepresents a person, and vice versa.\n\nThe API works with static images and live video use cases. During live video,\nthe API will leverage output from previous frames to return smoother\nsegmentation results. \n\n[iOS](/ml-kit/vision/selfie-segmentation/ios)\n[Android](/ml-kit/vision/selfie-segmentation/android)\n\n**Key capabilities:**\n\n- **Cross-platform support** Enjoy the same experience on both Android and iOS.\n- **Single or multiple user support** Easily segment multiple people or just a single person without changing any settings.\n- **Full and half body support** The API can segment both full body and upper body portraits and video.\n- **Real time results** The API is CPU-based and runs in real time on most modern smartphones (20 FPS+) and works well with both still image and live video streams.\n- **Raw size mask support** The segmentation mask output is the same size as the input image by default. The API also supports an option that produces a mask with the model output size instead (e.g. 256x256). This option makes it easier to apply customized rescaling logic or reduces latency if rescaling to the input image size is not needed for your use case.\n\nExample results\n---------------\n\n| Input Image | Output Image + Mask |\n|-------------|---------------------|\n| | |\n| | |\n| | |\n\nUnder the hood\n--------------\n\nFor more information on how the model was trained and our ML fairness practices, check out our [Model Card](/static/ml-kit/images/vision/selfie-segmentation/selfie-model-card.pdf)."]]