Gemini Code Assist และ AI ที่รับผิดชอบ
จัดทุกอย่างให้เป็นระเบียบอยู่เสมอด้วยคอลเล็กชัน
บันทึกและจัดหมวดหมู่เนื้อหาตามค่ากำหนดของคุณ
เอกสารนี้อธิบายถึงวิธีออกแบบฟีเจอร์ช่วยเขียนโค้ดของ Gemini โดยพิจารณาจากความสามารถ ข้อจํากัด และความเสี่ยงที่เชื่อมโยงกับ Generative AI
ความสามารถและความเสี่ยงของโมเดลภาษาขนาดใหญ่
โมเดลภาษาขนาดใหญ่ (LLM) สามารถทํางานต่างๆ ที่มีประโยชน์ได้มากมาย เช่น ต่อไปนี้
- แปลภาษา
- สรุปข้อความ
- สร้างโค้ดและการเขียนเชิงสร้างสรรค์
- ขับเคลื่อนแชทบ็อตและผู้ช่วยเสมือน
- เสริมเครื่องมือค้นหาและระบบการแนะนำ
ในขณะเดียวกัน ความสามารถทางเทคนิคที่พัฒนาขึ้นของ LLM ก็อาจทำให้เกิดการใช้งานที่ไม่ถูกต้อง การใช้ในทางที่ผิด และผลลัพธ์ที่ไม่ตั้งใจหรือคาดไม่ถึง
LLM อาจสร้างเอาต์พุตที่คุณไม่คาดคิด ซึ่งรวมถึงข้อความที่ไม่เหมาะสม ไม่คำนึงถึงความรู้สึกผู้อื่น หรือให้ข้อเท็จจริงที่ไม่ถูกต้อง เนื่องจาก LLM มีความอเนกประสงค์อย่างไม่น่าเชื่อ จึงคาดเดาได้ยากว่าระบบอาจสร้างเอาต์พุตประเภทใดที่ไม่ตั้งใจหรือคาดไม่ถึง
ด้วยเหตุนี้ Gemini Code Assist จึงได้รับการออกแบบโดยคำนึงถึงหลักการเกี่ยวกับ AI ของ Google อย่างไรก็ตาม ผู้ใช้ควรเข้าใจข้อจำกัดบางอย่างของฟีเจอร์ช่วยเขียนโค้ดของ Gemini เพื่อให้ทำงานได้อย่างปลอดภัยและมีความรับผิดชอบ
ข้อจำกัดของฟีเจอร์ช่วยเขียนโค้ดของ Gemini
ข้อจำกัดบางอย่างที่คุณอาจพบเมื่อใช้ฟีเจอร์ช่วยเขียนโค้ดของ Gemini มีดังนี้ (แต่ไม่จำกัดเพียง)
กรณีสุดโต่ง กรณีขอบหมายถึงสถานการณ์ที่ผิดปกติ เกิดขึ้นได้ยาก หรือพิเศษ ซึ่งไม่ได้แสดงอยู่ในข้อมูลการฝึก กรณีเหล่านี้อาจทำให้เกิดข้อจำกัดในเอาต์พุตของโมเดลการช่วยเขียนโค้ดของ Gemini เช่น โมเดลมีความมั่นใจมากเกินไป การตีความบริบทผิดพลาด หรือเอาต์พุตไม่เหมาะสม
อาการหลอนของโมเดล การเชื่อมต่อแหล่งข้อมูล และความถูกต้อง
โมเดลของฟีเจอร์ช่วยเขียนโค้ดของ Gemini อาจไม่มีพื้นฐานและข้อเท็จจริงเกี่ยวกับความรู้ในชีวิตจริง คุณสมบัติทางกายภาพ หรือการเข้าใจที่ถูกต้อง ข้อจํากัดนี้อาจทําให้โมเดลหลอน ซึ่ง Gemini Code Assist อาจสร้างเอาต์พุตที่ฟังดูน่าเชื่อถือแต่ข้อเท็จจริงไม่ถูกต้อง ไม่เกี่ยวข้อง ไม่เหมาะสม หรือไร้เหตุผล ภาพหลอนยังรวมถึงการปลอมแปลงลิงก์ไปยังหน้าเว็บที่ไม่มีอยู่และไม่เคยมีอยู่ด้วย ดูข้อมูลเพิ่มเติมได้ที่หัวข้อเขียนพรอมต์ที่ดีขึ้นสำหรับ Gemini สำหรับ Google Cloud
คุณภาพของข้อมูลและการจูน คุณภาพ ความถูกต้อง และอคติของข้อมูลพรอมต์ที่ป้อนลงในผลิตภัณฑ์ของ Gemini Code Assist อาจส่งผลอย่างมากต่อประสิทธิภาพของผลิตภัณฑ์ หากผู้ใช้ป้อนพรอมต์ที่ไม่ถูกต้องหรือไม่แม่นยำ ฟีเจอร์ช่วยเขียนโค้ดของ Gemini อาจแสดงคำตอบที่ไม่ถูกต้องหรือไม่เหมาะสม
การขยายอคติ โมเดลภาษาอาจขยายอคติที่มีอยู่ในชุดข้อมูลการฝึกโดยไม่ได้ตั้งใจ ซึ่งนำไปสู่เอาต์พุตที่อาจตอกย้ำอคติทางสังคมและการให้สิทธิไม่เท่าเทียมกับบางกลุ่ม
คุณภาพของภาษา แม้ว่าเครื่องมือช่วยเขียนโค้ดของ Gemini จะมีประสิทธิภาพที่ยอดเยี่ยมในหลายภาษาในข้อมูลเปรียบเทียบที่เราประเมิน แต่ข้อมูลเปรียบเทียบส่วนใหญ่ (รวมถึงการประเมินความเป็นธรรมทั้งหมด) ของเราเป็นภาษาอังกฤษแบบอเมริกัน
โมเดลภาษาอาจให้บริการที่มีคุณภาพไม่สอดคล้องกันแก่ผู้ใช้แต่ละราย
เช่น การสร้างข้อความอาจไม่มีประสิทธิภาพสำหรับภาษาถิ่นหรือภาษาย่อยบางภาษา เนื่องจากมีจำนวนไม่มากนักในข้อมูลการฝึก
ประสิทธิภาพอาจแย่ลงสําหรับภาษาที่ไม่ใช่ภาษาอังกฤษหรือภาษาอังกฤษที่มีการแสดงผลน้อย
การเปรียบเทียบความยุติธรรมและกลุ่มย่อย การวิเคราะห์ความยุติธรรมของโมเดล Gemini จาก Google Research ไม่ได้กล่าวถึงความเสี่ยงที่อาจเกิดขึ้นต่างๆ อย่างละเอียด เช่น เรามุ่งเน้นที่อคติตามแกนเพศ เชื้อชาติ ชาติพันธุ์ และศาสนา แต่วิเคราะห์เฉพาะข้อมูลภาษาอังกฤษแบบอเมริกันและเอาต์พุตของโมเดลเท่านั้น
ความเชี่ยวชาญด้านโดเมนที่จำกัด โมเดลของ Gemini ได้รับการฝึกด้วยเทคโนโลยี Google Cloud แต่อาจขาดความรู้เชิงลึกที่จําเป็นในการให้คําตอบที่ถูกต้องและละเอียดเกี่ยวกับหัวข้อเฉพาะทางหรือทางเทคนิคอย่างมาก ซึ่งส่งผลให้ข้อมูลเป็นข้อมูลคร่าวๆ หรือไม่ถูกต้อง
การกรองเนื้อหาที่เป็นอันตรายและเพื่อความปลอดภัยของ Gemini
ระบบจะตรวจสอบพรอมต์และการตอบกลับของ Gemini Code Assist กับรายการแอตทริบิวต์ความปลอดภัยที่ครอบคลุมตามแต่ละกรณีการใช้งาน แอตทริบิวต์ด้านความปลอดภัยเหล่านี้มีไว้เพื่อกรองเนื้อหาที่ละเมิดนโยบายการใช้งานที่ยอมรับได้ หากระบบพิจารณาว่าเอาต์พุตเป็นอันตราย ระบบจะบล็อกการตอบกลับ
ขั้นตอนถัดไป
เนื้อหาของหน้าเว็บนี้ได้รับอนุญาตภายใต้ใบอนุญาตที่ต้องระบุที่มาของครีเอทีฟคอมมอนส์ 4.0 และตัวอย่างโค้ดได้รับอนุญาตภายใต้ใบอนุญาต Apache 2.0 เว้นแต่จะระบุไว้เป็นอย่างอื่น โปรดดูรายละเอียดที่นโยบายเว็บไซต์ Google Developers Java เป็นเครื่องหมายการค้าจดทะเบียนของ Oracle และ/หรือบริษัทในเครือ
อัปเดตล่าสุด 2025-08-31 UTC
[null,null,["อัปเดตล่าสุด 2025-08-31 UTC"],[[["\u003cp\u003eGemini, a large language model (LLM), is designed with Google's AI principles to offer capabilities like language translation, text summarization, and code generation, while acknowledging the risks of misapplication and unintended outputs.\u003c/p\u003e\n"],["\u003cp\u003eGemini for Google Cloud has limitations such as producing unexpected output in edge cases, potentially generating inaccurate information, and lacking factuality, which can include hallucinated information or links.\u003c/p\u003e\n"],["\u003cp\u003eThe quality of Gemini's output is influenced by the data quality and accuracy of user prompts, and there is a potential for the amplification of societal biases present in its training data.\u003c/p\u003e\n"],["\u003cp\u003eGemini's performance can vary across languages and dialects, as it primarily evaluates fairness in American English, potentially resulting in inconsistent service quality for underrepresented language varieties.\u003c/p\u003e\n"],["\u003cp\u003eDespite being trained on Google Cloud technology, Gemini may lack the specialized knowledge required to offer accurate details on highly technical topics, and it does not have awareness of the user's specific environment in the Google Cloud console.\u003c/p\u003e\n"]]],[],null,["# Gemini Code Assist and responsible AI\n\nThis document describes how Gemini Code Assist is designed in\nview of the capabilities, limitations, and risks that are associated with\ngenerative AI.\n\nCapabilities and risks of large language models\n-----------------------------------------------\n\nLarge language models (LLMs) can perform many useful tasks such as the\nfollowing:\n\n- Translate language.\n- Summarize text.\n- Generate code and creative writing.\n- Power chatbots and virtual assistants.\n- Complement search engines and recommendation systems.\n\nAt the same time, the evolving technical capabilities of LLMs create the\npotential for misapplication, misuse, and unintended or unforeseen consequences.\n\nLLMs can generate output that you don't expect, including text that's offensive,\ninsensitive, or factually incorrect. Because LLMs are incredibly versatile, it\ncan be difficult to predict exactly what kinds of unintended or unforeseen\noutputs they might produce.\n\nGiven these risks and complexities, Gemini Code Assist is\ndesigned with [Google's AI principles](https://ai.google/responsibility/principles/)\nin mind. However, it's important for users to understand some of the limitations\nof Gemini Code Assist to work safely and responsibly.\n\nGemini Code Assist limitations\n------------------------------\n\nSome of the limitations that you might encounter using\nGemini Code Assist include (but aren't limited to) the following:\n\n- **Edge cases.** Edge cases refer to unusual, rare, or exceptional situations\n that aren't well represented in the training data. These cases can lead to\n limitations in the output of Gemini Code Assist models, such as\n model overconfidence, misinterpretation of context, or inappropriate outputs.\n\n- **Model hallucinations, grounding, and factuality.**\n Gemini Code Assist models might lack grounding and factuality\n in real-world knowledge, physical properties, or accurate understanding. This\n limitation can lead to model hallucinations, where\n Gemini Code Assist might generate outputs that are\n plausible-sounding but factually incorrect, irrelevant, inappropriate, or\n nonsensical. Hallucinations can also include fabricating links to web pages\n that don't exist and have never existed. For more information, see\n [Write better prompts for Gemini for Google Cloud](https://cloud.google.com/gemini/docs/discover/write-prompts).\n\n- **Data quality and tuning.** The quality, accuracy, and bias of the prompt\n data that's entered into Gemini Code Assist products can have a\n significant impact on its performance. If users enter inaccurate or incorrect\n prompts, Gemini Code Assist might return suboptimal or false\n responses.\n\n- **Bias amplification.** Language models can inadvertently amplify existing\n biases in their training data, leading to outputs that might further reinforce\n societal prejudices and unequal treatment of certain groups.\n\n- **Language quality.** While Gemini Code Assist yields\n impressive multilingual capabilities on the benchmarks that we evaluated\n against, the majority of our benchmarks (including all of the fairness\n evaluations) are in American English.\n\n Language models might provide inconsistent service quality to different users.\n For example, text generation might not be as effective for some dialects or\n language varieties because they are underrepresented in the training data.\n Performance might be worse for non-English languages or English language\n varieties with less representation.\n- **Fairness benchmarks and subgroups.** Google Research's fairness analyses of\n Gemini models don't provide an exhaustive account of the various\n potential risks. For example, we focus on biases along gender, race,\n ethnicity, and religion axes, but perform the analysis only on the American\n English language data and model outputs.\n\n- **Limited domain expertise.** Gemini models have been trained on\n Google Cloud technology, but it might lack the depth of knowledge that's\n required to provide accurate and detailed responses on highly specialized or\n technical topics, leading to superficial or incorrect information.\n\nGemini safety and toxicity filtering\n------------------------------------\n\nGemini Code Assist prompts and responses are checked against a\ncomprehensive list of safety attributes as applicable for each use case. These\nsafety attributes aim to filter out content that violates our\n[Acceptable Use Policy](https://cloud.google.com/terms/aup). If an output is\nconsidered harmful, the response will be blocked.\n\nWhat's next\n-----------\n\n- Learn more about [how Gemini Code Assist cites sources when helps you generate code](/gemini-code-assist/docs/works#how-when-gemini-cites-sources)."]]