সেভ করা পৃষ্ঠা গুছিয়ে রাখতে 'সংগ্রহ' ব্যবহার করুন
আপনার পছন্দ অনুযায়ী কন্টেন্ট সেভ করুন ও সঠিক বিভাগে রাখুন।
এমএল কিটের সেলফি সেগমেন্টেশন এপিআই ডেভেলপারদের সহজেই একটি দৃশ্যের মধ্যে ব্যবহারকারীদের থেকে ব্যাকগ্রাউন্ড আলাদা করতে এবং কোন বিষয়ের উপর ফোকাস করতে দেয়। সেলফিগুলিতে দুর্দান্ত প্রভাব যুক্ত করা বা আপনার ব্যবহারকারীদের আকর্ষণীয় ব্যাকগ্রাউন্ড পরিবেশে ঢোকানো কখনও সহজ ছিল না।
সেলফি সেগমেন্টেশন এপিআই একটি ইনপুট ইমেজ নেয় এবং একটি আউটপুট মাস্ক তৈরি করে। ডিফল্টরূপে, মুখোশটি ইনপুট চিত্রের মতো একই আকারের হবে। মুখোশের প্রতিটি পিক্সেলকে একটি ফ্লোট নম্বর বরাদ্দ করা হয়েছে যার পরিসীমা [0.0, 1.0] এর মধ্যে রয়েছে। সংখ্যাটি 1.0 এর কাছাকাছি, পিক্সেল একজন ব্যক্তির প্রতিনিধিত্ব করে এমন আত্মবিশ্বাস তত বেশি এবং এর বিপরীতে।
এপিআই স্ট্যাটিক ইমেজ এবং লাইভ ভিডিও ব্যবহারের ক্ষেত্রে কাজ করে। লাইভ ভিডিও চলাকালীন, মসৃণ বিভাজন ফলাফল ফেরাতে API পূর্ববর্তী ফ্রেম থেকে আউটপুট লাভ করবে।
ক্রস-প্ল্যাটফর্ম সমর্থন Android এবং iOS উভয় ক্ষেত্রেই একই অভিজ্ঞতা উপভোগ করুন৷
একক বা একাধিক ব্যবহারকারী সমর্থন কোনো সেটিংস পরিবর্তন না করে সহজেই একাধিক ব্যক্তি বা শুধুমাত্র একজন ব্যক্তিকে ভাগ করুন।
ফুল এবং হাফ বডি সাপোর্ট এপিআই ফুল বডি এবং আপার বডি পোর্ট্রেট এবং ভিডিও উভয়ই সেগমেন্ট করতে পারে।
রিয়েল টাইম ফলাফল এপিআই সিপিইউ-ভিত্তিক এবং বেশিরভাগ আধুনিক স্মার্টফোনে (20 FPS+) রিয়েল টাইমে চলে এবং স্থির চিত্র এবং লাইভ ভিডিও স্ট্রিম উভয়ের সাথেই ভাল কাজ করে।
কাঁচা আকারের মাস্ক সমর্থন বিভাজন মাস্ক আউটপুট ডিফল্টরূপে ইনপুট চিত্রের আকারের সমান। এপিআই এমন একটি বিকল্পকেও সমর্থন করে যা মডেল আউটপুট আকারের পরিবর্তে একটি মাস্ক তৈরি করে (যেমন 256x256)। এই বিকল্পটি কাস্টমাইজড রিস্কেলিং লজিক প্রয়োগ করা সহজ করে বা আপনার ব্যবহারের ক্ষেত্রে ইনপুট ইমেজ আকারে রিস্কেল করার প্রয়োজন না হলে বিলম্ব কমায়।
উদাহরণ ফলাফল
ইনপুট ইমেজ
আউটপুট ইমেজ + মাস্ক
ফণা অধীনে
মডেলটিকে কীভাবে প্রশিক্ষিত করা হয়েছিল এবং আমাদের ML ন্যায্যতা অনুশীলনগুলি সম্পর্কে আরও তথ্যের জন্য, আমাদের মডেল কার্ডটি দেখুন৷
[null,null,["2025-07-24 UTC-তে শেষবার আপডেট করা হয়েছে।"],[[["\u003cp\u003eThe Selfie Segmentation API generates a mask identifying people in images and videos, with pixel values indicating confidence levels.\u003c/p\u003e\n"],["\u003cp\u003eThis API is cross-platform, supports single or multiple users, handles full and half body portraits, and provides real-time results.\u003c/p\u003e\n"],["\u003cp\u003eThe API is in beta and subject to change.\u003c/p\u003e\n"],["\u003cp\u003eDevelopers can access platform-specific implementation details via provided links for iOS and Android.\u003c/p\u003e\n"]]],[],null,["# Selfie segmentation\n\n| This API is offered in beta, and is not subject to any SLA or deprecation policy. Changes may be made to this API that break backward compatibility.\n\nML Kit's selfie segmentation API allows developers to easily separate the background from users within a scene and focus on what matters. Adding cool effects to selfies or inserting your users into interesting background environments has never been easier.\n\nThe selfie segmentation API takes an input image and produces an output mask. By\ndefault, the mask will be the same size as the input image. Each pixel of the\nmask is assigned a float number that has a range between \\[0.0, 1.0\\].\nThe closer the number is to 1.0, the higher the confidence that the pixel\nrepresents a person, and vice versa.\n\nThe API works with static images and live video use cases. During live video,\nthe API will leverage output from previous frames to return smoother\nsegmentation results. \n\n[iOS](/ml-kit/vision/selfie-segmentation/ios)\n[Android](/ml-kit/vision/selfie-segmentation/android)\n\n**Key capabilities:**\n\n- **Cross-platform support** Enjoy the same experience on both Android and iOS.\n- **Single or multiple user support** Easily segment multiple people or just a single person without changing any settings.\n- **Full and half body support** The API can segment both full body and upper body portraits and video.\n- **Real time results** The API is CPU-based and runs in real time on most modern smartphones (20 FPS+) and works well with both still image and live video streams.\n- **Raw size mask support** The segmentation mask output is the same size as the input image by default. The API also supports an option that produces a mask with the model output size instead (e.g. 256x256). This option makes it easier to apply customized rescaling logic or reduces latency if rescaling to the input image size is not needed for your use case.\n\nExample results\n---------------\n\n| Input Image | Output Image + Mask |\n|-------------|---------------------|\n| | |\n| | |\n| | |\n\nUnder the hood\n--------------\n\nFor more information on how the model was trained and our ML fairness practices, check out our [Model Card](/static/ml-kit/images/vision/selfie-segmentation/selfie-model-card.pdf)."]]