Mantieni tutto organizzato con le raccolte
Salva e classifica i contenuti in base alle tue preferenze.
L'API di segmentazione dei soggetti di ML Kit consente agli sviluppatori di separare facilmente più soggetti dallo sfondo in un'immagine, consentendo casi d'uso come la creazione di adesivi, lo scambio dello sfondo o l'aggiunta di effetti interessanti ai soggetti.
Per soggetti si intendono le persone, gli animali domestici o gli oggetti più in evidenza che si trovano in primo piano nell'immagine. Se due soggetti sono molto vicini o si toccano,
vengono considerati come un unico soggetto.
L'API di segmentazione dei soggetti accetta un'immagine di input e genera una maschera di output o una bitmap per il primo piano. Fornisce inoltre una maschera e una bitmap per ciascuno dei soggetti rilevati (il primo piano è uguale a tutti i soggetti combinati).
Per impostazione predefinita, la maschera in primo piano e la bitmap in primo piano hanno le stesse dimensioni dell'immagine di input (le dimensioni della maschera e della bitmap di ogni singolo soggetto saranno probabilmente diverse dalle dimensioni dell'immagine di input). A ogni pixel della maschera viene assegnato un numero decimale con un intervallo compreso tra 0.0 e 1.0. Più il numero è vicino a 1.0, maggiore
è la certezza che il pixel rappresenti un soggetto e viceversa.
In media, la latenza misurata su Pixel 7 Pro è di circa 200 ms. Al momento questa API supporta solo immagini statiche.
Segmentazione di più soggetti: fornisce maschere e bitmap per ogni singolo soggetto, anziché una singola maschera e bitmap per tutti i soggetti combinati.
Riconoscimento dei soggetti:i soggetti riconosciuti sono oggetti, animali domestici e persone.
Elaborazione sul dispositivo: tutta l'elaborazione viene eseguita sul dispositivo, preservando la privacy dell'utente e senza richiedere connettività di rete.
[null,null,["Ultimo aggiornamento 2025-07-25 UTC."],[[["\u003cp\u003eThe ML Kit subject segmentation API enables developers to isolate subjects (people, pets, objects) from the background in images for various applications like sticker creation and background replacement.\u003c/p\u003e\n"],["\u003cp\u003eThis API provides individual masks and bitmaps for each detected subject, allowing for granular manipulation and effects.\u003c/p\u003e\n"],["\u003cp\u003eAll processing happens on-device, ensuring user privacy and eliminating the need for internet connectivity.\u003c/p\u003e\n"],["\u003cp\u003eThis API is currently in beta and might undergo changes that could affect backward compatibility.\u003c/p\u003e\n"]]],[],null,["# Subject Segmentation\n\n| This API is offered in beta, and is not subject to any SLA or deprecation policy. Changes may be made to this API that break backward compatibility.\n\nML Kit's subject segmentation API allows developers to easily separate multiple\nsubjects from the background in a picture, enabling use cases such as sticker\ncreation, background swap, or adding cool effects to subjects.\n\nSubjects are defined as the most prominent people, pets, or objects in the\nforeground of the image. If 2 subjects are very close or touching each other,\nthey are considered a single subject.\n\nThe subject segmentation API takes an input image and generates an output mask\nor bitmap for the foreground. It also provides a mask and bitmap for each one of\nthe subjects detected (the foreground is equal to all subjects combined).\n\nBy default, the foreground mask and foreground bitmap are the same size as the\ninput image (the size of each individual subject's mask and bitmap will likely\ndiffer from input image size). Each pixel of the mask is assigned a float number\nthat has a range between `0.0` and `1.0`. The closer the number is to `1.0`, the\nhigher the confidence that the pixel represents a subject, and vice versa.\n\nOn average the latency measured on Pixel 7 Pro is around 200 ms. This API\ncurrently only supports static images.\n\n[Android](/ml-kit/vision/subject-segmentation/android)\n\n### Key capabilities\n\n- **Multi-subject segmentation:** provides masks and bitmaps for each individual subject, rather than a single mask and bitmap for all subjects combined.\n- **Subject recognition:** subjects recognized are objects, pets, and humans.\n- **On-device processing:** all processing is performed on the device, preserving user privacy and requiring no network connectivity.\n\n### Example results\n\n| Input Image | Output Image + Mask |\n|-------------|---------------------|\n| | |\n| | |\n| | |"]]