Tính năng hỗ trợ lập trình của Gemini và AI có trách nhiệm
Sử dụng bộ sưu tập để sắp xếp ngăn nắp các trang
Lưu và phân loại nội dung dựa trên lựa chọn ưu tiên của bạn.
Tài liệu này mô tả cách thiết kế tính năng Trợ giúp mã Gemini dựa trên các tính năng, hạn chế và rủi ro liên quan đến AI tạo sinh.
Khả năng và rủi ro của mô hình ngôn ngữ lớn
Mô hình ngôn ngữ lớn (LLM) có thể thực hiện nhiều nhiệm vụ hữu ích như sau:
- Dịch ngôn ngữ.
- Tóm tắt văn bản.
- Tạo mã và viết sáng tạo.
- Hỗ trợ chatbot và trợ lý ảo.
- Bổ sung cho công cụ tìm kiếm và hệ thống đề xuất.
Đồng thời, khả năng kỹ thuật ngày càng phát triển của LLM tạo ra khả năng áp dụng sai, sử dụng sai và các hậu quả ngoài ý muốn hoặc không lường trước được.
LLM có thể tạo ra kết quả mà bạn không mong muốn, bao gồm cả văn bản phản cảm, vô cảm hoặc không chính xác về mặt thực tế. Vì LLM cực kỳ linh hoạt, nên rất khó để dự đoán chính xác loại đầu ra nào mà chúng có thể tạo ra ngoài ý muốn hoặc ngoài dự kiến.
Do những rủi ro và sự phức tạp này, tính năng Trợ giúp lập trình của Gemini được thiết kế dựa trên các nguyên tắc của Google về AI. Tuy nhiên, người dùng cần hiểu một số hạn chế của tính năng Trợ giúp mã Gemini để làm việc một cách an toàn và có trách nhiệm.
Hạn chế của tính năng Gemini Code Assist
Một số hạn chế mà bạn có thể gặp phải khi sử dụng tính năng Hỗ trợ mã Gemini bao gồm (nhưng không giới hạn ở) những hạn chế sau:
Trường hợp hiếm gặp. Trường hợp hiếm gặp đề cập đến các tình huống bất thường, hiếm gặp hoặc đặc biệt không được thể hiện rõ trong dữ liệu huấn luyện. Những trường hợp này có thể dẫn đến các giới hạn trong kết quả của mô hình Trợ giúp mã Gemini, chẳng hạn như mô hình quá tự tin, diễn giải sai ngữ cảnh hoặc kết quả không phù hợp.
Lập mô hình ảo tưởng, căn cứ và tính thực tế.
Các mô hình hỗ trợ mã Gemini có thể thiếu cơ sở và tính thực tế trong kiến thức thực tế, thuộc tính vật lý hoặc sự hiểu biết chính xác. Hạn chế này có thể dẫn đến ảo giác về mô hình, trong đó tính năng Trợ giúp mã Gemini có thể tạo ra kết quả nghe có vẻ hợp lý nhưng thực tế lại không chính xác, không liên quan, không phù hợp hoặc vô nghĩa. Hallucinations cũng có thể bao gồm việc tạo đường liên kết đến các trang web không tồn tại và chưa từng tồn tại. Để biết thêm thông tin, hãy xem bài viết Viết câu lệnh hiệu quả hơn cho Gemini cho Google Cloud.
Chất lượng dữ liệu và điều chỉnh. Chất lượng, độ chính xác và độ lệch của dữ liệu lời nhắc được nhập vào các sản phẩm Hỗ trợ mã Gemini có thể ảnh hưởng đáng kể đến hiệu suất của sản phẩm. Nếu người dùng nhập câu lệnh không chính xác hoặc không chính xác, tính năng Trợ giúp mã Gemini có thể trả về câu trả lời không tối ưu hoặc sai.
Khuếch đại độ lệch. Các mô hình ngôn ngữ có thể vô tình khuếch đại các thành kiến hiện có trong dữ liệu huấn luyện, dẫn đến kết quả có thể củng cố thêm các thành kiến xã hội và cách đối xử không công bằng đối với một số nhóm nhất định.
Chất lượng ngôn ngữ. Mặc dù tính năng Trợ giúp mã của Gemini mang lại các tính năng đa ngôn ngữ ấn tượng trên các điểm chuẩn mà chúng tôi đã đánh giá, nhưng phần lớn các điểm chuẩn của chúng tôi (bao gồm cả tất cả các đánh giá về tính công bằng) đều bằng tiếng Anh Mỹ.
Mô hình ngôn ngữ có thể cung cấp chất lượng dịch vụ không nhất quán cho nhiều người dùng.
Ví dụ: việc tạo văn bản có thể không hiệu quả đối với một số phương ngữ hoặc biến thể ngôn ngữ vì các phương ngữ hoặc biến thể ngôn ngữ đó không được thể hiện đúng mức trong dữ liệu huấn luyện.
Hiệu suất có thể kém hơn đối với các ngôn ngữ không phải tiếng Anh hoặc các biến thể tiếng Anh có ít dữ liệu đại diện hơn.
Điểm chuẩn về tính công bằng và các nhóm nhỏ. Các phân tích về tính công bằng của Google Research đối với mô hình Gemini không cung cấp thông tin đầy đủ về nhiều rủi ro tiềm ẩn. Ví dụ: chúng tôi tập trung vào các thành kiến dọc theo trục giới tính, chủng tộc, sắc tộc và tôn giáo, nhưng chỉ thực hiện phân tích trên dữ liệu tiếng Anh Mỹ và kết quả của mô hình.
Có ít kiến thức chuyên môn về miền. Các mô hình Gemini đã được huấn luyện về công nghệ Google Cloud, nhưng có thể thiếu kiến thức chuyên sâu cần thiết để đưa ra câu trả lời chính xác và chi tiết về các chủ đề chuyên sâu hoặc kỹ thuật, dẫn đến thông tin nông cạn hoặc không chính xác.
Tính năng lọc nội dung độc hại và an toàn của Gemini
Lời nhắc và câu trả lời của tính năng Trợ giúp mã Gemini được kiểm tra theo một danh sách toàn diện các thuộc tính an toàn (nếu có) cho từng trường hợp sử dụng. Mục đích của các thuộc tính an toàn này là lọc ra nội dung vi phạm Chính sách về việc sử dụng được chấp nhận của chúng tôi. Nếu một đầu ra được coi là gây hại, thì phản hồi sẽ bị chặn.
Bước tiếp theo
Trừ phi có lưu ý khác, nội dung của trang này được cấp phép theo Giấy phép ghi nhận tác giả 4.0 của Creative Commons và các mẫu mã lập trình được cấp phép theo Giấy phép Apache 2.0. Để biết thông tin chi tiết, vui lòng tham khảo Chính sách trang web của Google Developers. Java là nhãn hiệu đã đăng ký của Oracle và/hoặc các đơn vị liên kết với Oracle.
Cập nhật lần gần đây nhất: 2025-08-31 UTC.
[null,null,["Cập nhật lần gần đây nhất: 2025-08-31 UTC."],[[["\u003cp\u003eGemini, a large language model (LLM), is designed with Google's AI principles to offer capabilities like language translation, text summarization, and code generation, while acknowledging the risks of misapplication and unintended outputs.\u003c/p\u003e\n"],["\u003cp\u003eGemini for Google Cloud has limitations such as producing unexpected output in edge cases, potentially generating inaccurate information, and lacking factuality, which can include hallucinated information or links.\u003c/p\u003e\n"],["\u003cp\u003eThe quality of Gemini's output is influenced by the data quality and accuracy of user prompts, and there is a potential for the amplification of societal biases present in its training data.\u003c/p\u003e\n"],["\u003cp\u003eGemini's performance can vary across languages and dialects, as it primarily evaluates fairness in American English, potentially resulting in inconsistent service quality for underrepresented language varieties.\u003c/p\u003e\n"],["\u003cp\u003eDespite being trained on Google Cloud technology, Gemini may lack the specialized knowledge required to offer accurate details on highly technical topics, and it does not have awareness of the user's specific environment in the Google Cloud console.\u003c/p\u003e\n"]]],[],null,["# Gemini Code Assist and responsible AI\n\nThis document describes how Gemini Code Assist is designed in\nview of the capabilities, limitations, and risks that are associated with\ngenerative AI.\n\nCapabilities and risks of large language models\n-----------------------------------------------\n\nLarge language models (LLMs) can perform many useful tasks such as the\nfollowing:\n\n- Translate language.\n- Summarize text.\n- Generate code and creative writing.\n- Power chatbots and virtual assistants.\n- Complement search engines and recommendation systems.\n\nAt the same time, the evolving technical capabilities of LLMs create the\npotential for misapplication, misuse, and unintended or unforeseen consequences.\n\nLLMs can generate output that you don't expect, including text that's offensive,\ninsensitive, or factually incorrect. Because LLMs are incredibly versatile, it\ncan be difficult to predict exactly what kinds of unintended or unforeseen\noutputs they might produce.\n\nGiven these risks and complexities, Gemini Code Assist is\ndesigned with [Google's AI principles](https://ai.google/responsibility/principles/)\nin mind. However, it's important for users to understand some of the limitations\nof Gemini Code Assist to work safely and responsibly.\n\nGemini Code Assist limitations\n------------------------------\n\nSome of the limitations that you might encounter using\nGemini Code Assist include (but aren't limited to) the following:\n\n- **Edge cases.** Edge cases refer to unusual, rare, or exceptional situations\n that aren't well represented in the training data. These cases can lead to\n limitations in the output of Gemini Code Assist models, such as\n model overconfidence, misinterpretation of context, or inappropriate outputs.\n\n- **Model hallucinations, grounding, and factuality.**\n Gemini Code Assist models might lack grounding and factuality\n in real-world knowledge, physical properties, or accurate understanding. This\n limitation can lead to model hallucinations, where\n Gemini Code Assist might generate outputs that are\n plausible-sounding but factually incorrect, irrelevant, inappropriate, or\n nonsensical. Hallucinations can also include fabricating links to web pages\n that don't exist and have never existed. For more information, see\n [Write better prompts for Gemini for Google Cloud](https://cloud.google.com/gemini/docs/discover/write-prompts).\n\n- **Data quality and tuning.** The quality, accuracy, and bias of the prompt\n data that's entered into Gemini Code Assist products can have a\n significant impact on its performance. If users enter inaccurate or incorrect\n prompts, Gemini Code Assist might return suboptimal or false\n responses.\n\n- **Bias amplification.** Language models can inadvertently amplify existing\n biases in their training data, leading to outputs that might further reinforce\n societal prejudices and unequal treatment of certain groups.\n\n- **Language quality.** While Gemini Code Assist yields\n impressive multilingual capabilities on the benchmarks that we evaluated\n against, the majority of our benchmarks (including all of the fairness\n evaluations) are in American English.\n\n Language models might provide inconsistent service quality to different users.\n For example, text generation might not be as effective for some dialects or\n language varieties because they are underrepresented in the training data.\n Performance might be worse for non-English languages or English language\n varieties with less representation.\n- **Fairness benchmarks and subgroups.** Google Research's fairness analyses of\n Gemini models don't provide an exhaustive account of the various\n potential risks. For example, we focus on biases along gender, race,\n ethnicity, and religion axes, but perform the analysis only on the American\n English language data and model outputs.\n\n- **Limited domain expertise.** Gemini models have been trained on\n Google Cloud technology, but it might lack the depth of knowledge that's\n required to provide accurate and detailed responses on highly specialized or\n technical topics, leading to superficial or incorrect information.\n\nGemini safety and toxicity filtering\n------------------------------------\n\nGemini Code Assist prompts and responses are checked against a\ncomprehensive list of safety attributes as applicable for each use case. These\nsafety attributes aim to filter out content that violates our\n[Acceptable Use Policy](https://cloud.google.com/terms/aup). If an output is\nconsidered harmful, the response will be blocked.\n\nWhat's next\n-----------\n\n- Learn more about [how Gemini Code Assist cites sources when helps you generate code](/gemini-code-assist/docs/works#how-when-gemini-cites-sources)."]]