Sử dụng bộ sưu tập để sắp xếp ngăn nắp các trang
Lưu và phân loại nội dung dựa trên lựa chọn ưu tiên của bạn.
Sử dụng công nghệ học máy trên thiết bị trong ứng dụng để dễ dàng giải quyết các vấn đề thực tế.
Bộ công cụ học máy là một SDK di động mang chuyên môn học máy trên thiết bị của Google vào các ứng dụng Android và iOS. Sử dụng các API GenAI, API Thị giác và API Ngôn ngữ tự nhiên mạnh mẽ nhưng dễ sử dụng của chúng tôi để giải quyết các thách thức thường gặp trong ứng dụng hoặc tạo trải nghiệm người dùng hoàn toàn mới. Tất cả đều được cung cấp miễn phí cho bạn và được hỗ trợ bởi các mô hình học máy tốt nhất trong lớp của Google.
Tất cả API của Bộ công cụ máy học đều chạy trên thiết bị, cho phép các trường hợp sử dụng theo thời gian thực, chẳng hạn như khi bạn muốn xử lý luồng trực tiếp của máy ảnh. Điều này cũng có nghĩa là chức năng này có thể dùng được khi không có mạng.
Tính năng mới
Chúng tôi đã ra mắt phiên bản thử nghiệm của API GenAI, cung cấp chất lượng ngay từ đầu cho các trường hợp sử dụng phổ biến thông qua giao diện cấp cao.
Bản phát hành ban đầu bao gồm các tính năng Mô tả hình ảnh, Kiểm tra lỗi, Viết lại và Tóm tắt.
Tìm hiểu thêm
API GenAI khai thác sức mạnh của Gemini Nano để giúp ứng dụng của bạn thực hiện các tác vụ. Các API này cung cấp chất lượng ngay từ đầu cho các trường hợp sử dụng phổ biến như: Mô tả hình ảnh, Kiểm tra lỗi, Viết lại và Tóm tắt.
Nếu các API khoá sẵn của Bộ công cụ học máy không đáp ứng nhu cầu của bạn và bạn cần một giải pháp tuỳ chỉnh hơn, hãy truy cập vào trang Học máy trên thiết bị để được hướng dẫn về tất cả các giải pháp và công cụ của Google dành cho học máy trên thiết bị.
[null,null,["Cập nhật lần gần đây nhất: 2025-08-29 UTC."],[[["\u003cp\u003eML Kit is a free mobile SDK that brings Google's machine learning expertise to Android and iOS apps through easy-to-use Vision and Natural Language APIs.\u003c/p\u003e\n"],["\u003cp\u003eML Kit's APIs run on-device, enabling real-time processing and offline functionality, but require Android API level 21 or higher.\u003c/p\u003e\n"],["\u003cp\u003eDevelopers can utilize pre-built APIs for tasks like text recognition, image labeling, and language identification, or integrate custom TensorFlow Lite models.\u003c/p\u003e\n"],["\u003cp\u003eGoogle provides extensive resources including sample apps, codelabs, and documentation to help developers get started with ML Kit.\u003c/p\u003e\n"],["\u003cp\u003eWhile most of ML Kit is generally available, certain features like Pose Detection and Text Recognition v2 are currently in beta.\u003c/p\u003e\n"]]],[],null,["Use on-device machine learning in your apps to easily solve real-world problems.\n\nML Kit is a mobile SDK that brings Google's on-device machine learning\nexpertise to Android and iOS apps. Use our powerful yet easy to use GenAI,\nVision and Natural Language APIs to solve common challenges in your apps or\ncreate brand-new user experiences. All are powered by Google's best-in-class ML\nmodels and offered to you at no cost.\n\nML Kit's APIs all run on-device, allowing for real-time use cases where you want\nto process a live camera stream for example. This also means that the\nfunctionality is available offline.\n| All ML Kit APIs require Android API level 21 or higher.\n\nWhat's new \n\n- We launched the beta version of the [GenAI APIs](/ml-kit/genai), offering out-of-the-box quality for common use cases through a high-level interface. Initial launch includes [Image Description](/ml-kit/genai/image-description/android), [Proofreading](/ml-kit/genai/proofreading/android), [Rewriting](/ml-kit/genai/rewriting/android) and [Summarization](/ml-kit/genai/summarization/android).\n\nLearn more\n\n- [GenAI APIs](/ml-kit/genai) harness the power of Gemini Nano to help your app perform tasks. These APIs provide out-of-the-box quality for popular use cases such as: [Image Description](/ml-kit/genai/image-description/android), [Proofreading](/ml-kit/genai/proofreading/android), [Rewriting](/ml-kit/genai/rewriting/android) and [Summarization](/ml-kit/genai/summarization/android).\n- ML Kit also offers ready-to-use APIs powered by Google's ML models: [text recognition](/ml-kit/vision/text-recognition), [face detection](/ml-kit/vision/face-detection), [barcode scanning](/ml-kit/vision/barcode-scanning), [image labeling](/ml-kit/vision/image-labeling), [object detection and tracking](/ml-kit/vision/object-detection), [pose detection](/ml-kit/vision/pose-detection), [selfie segmentation](/ml-kit/vision/selfie-segmentation), [smart reply](/ml-kit/language/smart-reply), [text translation](/ml-kit/language/translation), and [language identification](/ml-kit/language/identification).\n- Learn how to use custom TensorFlow Lite image labeling models in your apps. Read [Custom models with ML Kit](/ml-kit/custom-models).\n- Take a look at our [sample apps and codelabs](/ml-kit/samples). They help you get started with all of the APIs.\n\nOther resources\n\nIf ML Kit's turn-key APIs don't meet your needs and you require a more custom\nsolution, visit the\n[On-device Machine Learning page](/learn/topics/on-device-ml) for guidance on\nall of Google's solutions and tools for on-device machine learning."]]