Organiza tus páginas con colecciones
Guarda y categoriza el contenido según tus preferencias.
La API de segmentación de temas del Kit de AA permite a los desarrolladores separar fácilmente varios sujetos del fondo de una foto, lo que habilita casos de uso como la creación de calcomanías, el intercambio de fondos o la adición de efectos geniales a los sujetos.
Los sujetos se definen como las personas, los objetos o las mascotas más destacados en el primer plano de la imagen. Si 2 personas están muy cerca o se tocan entre sí, se consideran como un solo sujeto.
La API de segmentación de temas toma una imagen de entrada y genera una máscara de salida o un mapa de bits para el primer plano. También proporciona una máscara y un mapa de bits para cada uno de los sujetos detectados (el primer plano es igual a todos los sujetos combinados).
De forma predeterminada, la máscara en primer plano y el mapa de bits en primer plano tienen el mismo tamaño que la imagen de entrada (es probable que el tamaño de la máscara y el mapa de bits de cada sujeto individual difiera del tamaño de la imagen de entrada). A cada píxel de la máscara se le asigna un número de punto flotante que tiene un rango entre 0.0 y 1.0. Cuanto más cercano sea el número a 1.0, mayor será la confianza de que el píxel represente un sujeto y viceversa.
En promedio, la latencia medida en el Pixel 7 Pro es de alrededor de 200 ms. Actualmente, esta API solo admite imágenes estáticas.
Segmentación de varios temas: Proporciona máscaras y mapas de bits para cada objeto individual, en lugar de una sola máscara y un mapa de bits para todos los sujetos combinados.
Reconocimiento de sujetos: Los sujetos reconocidos son objetos, mascotas y humanos.
Procesamiento en el dispositivo: Todo el procesamiento se realiza en el dispositivo, lo que preserva la privacidad del usuario y no requiere conectividad de red.
[null,null,["Última actualización: 2025-07-25 (UTC)"],[[["\u003cp\u003eThe ML Kit subject segmentation API enables developers to isolate subjects (people, pets, objects) from the background in images for various applications like sticker creation and background replacement.\u003c/p\u003e\n"],["\u003cp\u003eThis API provides individual masks and bitmaps for each detected subject, allowing for granular manipulation and effects.\u003c/p\u003e\n"],["\u003cp\u003eAll processing happens on-device, ensuring user privacy and eliminating the need for internet connectivity.\u003c/p\u003e\n"],["\u003cp\u003eThis API is currently in beta and might undergo changes that could affect backward compatibility.\u003c/p\u003e\n"]]],[],null,["# Subject Segmentation\n\n| This API is offered in beta, and is not subject to any SLA or deprecation policy. Changes may be made to this API that break backward compatibility.\n\nML Kit's subject segmentation API allows developers to easily separate multiple\nsubjects from the background in a picture, enabling use cases such as sticker\ncreation, background swap, or adding cool effects to subjects.\n\nSubjects are defined as the most prominent people, pets, or objects in the\nforeground of the image. If 2 subjects are very close or touching each other,\nthey are considered a single subject.\n\nThe subject segmentation API takes an input image and generates an output mask\nor bitmap for the foreground. It also provides a mask and bitmap for each one of\nthe subjects detected (the foreground is equal to all subjects combined).\n\nBy default, the foreground mask and foreground bitmap are the same size as the\ninput image (the size of each individual subject's mask and bitmap will likely\ndiffer from input image size). Each pixel of the mask is assigned a float number\nthat has a range between `0.0` and `1.0`. The closer the number is to `1.0`, the\nhigher the confidence that the pixel represents a subject, and vice versa.\n\nOn average the latency measured on Pixel 7 Pro is around 200 ms. This API\ncurrently only supports static images.\n\n[Android](/ml-kit/vision/subject-segmentation/android)\n\n### Key capabilities\n\n- **Multi-subject segmentation:** provides masks and bitmaps for each individual subject, rather than a single mask and bitmap for all subjects combined.\n- **Subject recognition:** subjects recognized are objects, pets, and humans.\n- **On-device processing:** all processing is performed on the device, preserving user privacy and requiring no network connectivity.\n\n### Example results\n\n| Input Image | Output Image + Mask |\n|-------------|---------------------|\n| | |\n| | |\n| | |"]]