Gemini Code Assist dan AI yang bertanggung jawab
Tetap teratur dengan koleksi
Simpan dan kategorikan konten berdasarkan preferensi Anda.
Dokumen ini menjelaskan cara Gemini Code Assist dirancang berdasarkan
kemampuan, batasan, dan risiko yang terkait dengan
AI generatif.
Kemampuan dan risiko model bahasa besar
Model bahasa besar (LLM) dapat melakukan banyak tugas yang berguna seperti
berikut:
- Terjemahkan bahasa.
- Meringkas teks.
- Membuat kode dan menulis materi iklan.
- Memperkuat chatbot dan asisten virtual.
- Melengkapi mesin telusur dan sistem rekomendasi.
Pada saat yang sama, kemampuan teknis LLM yang terus berkembang menciptakan
potensi penyelewengan, penyalahgunaan, dan konsekuensi yang tidak diinginkan atau tidak terduga.
LLM dapat menghasilkan output yang tidak Anda harapkan, termasuk teks yang menyinggung,
tidak sensitif, atau salah secara faktual. Karena LLM sangat fleksibel, mungkin sulit untuk memprediksi dengan tepat jenis output yang tidak diinginkan atau tidak terduga
yang mungkin dihasilkan.
Mengingat risiko dan kompleksitas ini, Gemini Code Assist
dirancang dengan mempertimbangkan prinsip AI Google. Namun, penting bagi pengguna untuk memahami beberapa batasan
Gemini Code Assist agar dapat bekerja dengan aman dan bertanggung jawab.
Batasan Gemini Code Assist
Beberapa batasan yang mungkin Anda temui saat menggunakan Gemini Code Assist mencakup (tetapi tidak terbatas pada) hal berikut:
Kasus ekstrem. Kasus khusus mengacu pada situasi yang tidak biasa, jarang, atau luar biasa yang tidak terwakili dengan baik dalam data pelatihan. Kasus-kasus ini dapat menyebabkan
keterbatasan dalam output model Gemini Code Assist, seperti
keyakinan berlebihan model, salah tafsir konteks, atau output yang tidak sesuai.
Membuat model halusinasi, perujukan, dan fakta.
Model Gemini Code Assist mungkin tidak memiliki dasar dan fakta
dalam pengetahuan dunia nyata, properti fisik, atau pemahaman yang akurat. Keterbatasan ini dapat menyebabkan halusinasi model, yaitu saat Gemini Code Assist mungkin menghasilkan output yang terdengar masuk akal, tetapi salah secara faktual, tidak relevan, tidak pantas, atau tidak masuk akal. Halusinasi juga dapat mencakup pembuatan link ke halaman web
yang tidak ada dan tidak pernah ada. Untuk mengetahui informasi selengkapnya, lihat
Menulis perintah yang lebih baik untuk Gemini untuk Google Cloud.
Kualitas dan penyesuaian data. Kualitas, akurasi, dan bias data prompt
yang dimasukkan ke produk Gemini Code Assist dapat memberikan
dampak yang signifikan terhadap performanya. Jika pengguna memasukkan perintah yang tidak akurat atau salah, Gemini Code Assist mungkin menampilkan respons yang kurang optimal atau salah.
Amplifikasi bias. Model bahasa dapat secara tidak sengaja memperkuat bias yang sudah ada dalam data pelatihannya, sehingga menghasilkan output yang dapat semakin memperkuat prasangka sosial dan perlakuan yang tidak setara terhadap kelompok tertentu.
Kualitas bahasa. Meskipun Gemini Code Assist menghasilkan
kemampuan multibahasa yang mengesankan pada tolok ukur yang kami evaluasi, sebagian besar tolok ukur kami (termasuk semua evaluasi
keadilan) menggunakan bahasa Inggris Amerika.
Model bahasa mungkin memberikan kualitas layanan yang tidak konsisten kepada pengguna yang berbeda.
Misalnya, pembuatan teks mungkin tidak efektif untuk beberapa dialek atau varietas bahasa karena data pelatihan kurang terwakili.
Performa mungkin lebih buruk untuk bahasa non-Inggris atau variasi bahasa
Inggris dengan representasi yang lebih sedikit.
Sub-grup dan tolok ukur keadilan. Analisis keadilan Tim Riset Google terhadap
model Gemini tidak memberikan informasi lengkap mengenai berbagai
potensi risiko. Misalnya, kami berfokus pada bias terkait sumbu gender, ras,
etnis, dan agama, tetapi hanya melakukan analisis pada output model dan data berbahasa
Inggris Amerika.
Keahlian domain terbatas. Model Gemini telah dilatih dengan teknologi Google Cloud, tetapi mungkin tidak memiliki kedalaman pengetahuan yang diperlukan untuk memberikan respons yang akurat dan mendetail tentang topik yang sangat khusus atau teknis, sehingga menghasilkan informasi yang bersifat dangkal atau salah.
Pemfilteran keamanan dan toksisitas Gemini
Perintah dan respons Gemini Code Assist diperiksa berdasarkan
daftar atribut keamanan yang komprehensif sebagaimana berlaku untuk setiap kasus penggunaan. Atribut keamanan
ini bertujuan untuk memfilter konten yang melanggar
Kebijakan Penggunaan yang Dapat Diterima kami. Jika output dianggap
berbahaya, respons akan diblokir.
Langkah berikutnya
Kecuali dinyatakan lain, konten di halaman ini dilisensikan berdasarkan Lisensi Creative Commons Attribution 4.0, sedangkan contoh kode dilisensikan berdasarkan Lisensi Apache 2.0. Untuk mengetahui informasi selengkapnya, lihat Kebijakan Situs Google Developers. Java adalah merek dagang terdaftar dari Oracle dan/atau afiliasinya.
Terakhir diperbarui pada 2025-08-31 UTC.
[null,null,["Terakhir diperbarui pada 2025-08-31 UTC."],[[["\u003cp\u003eGemini, a large language model (LLM), is designed with Google's AI principles to offer capabilities like language translation, text summarization, and code generation, while acknowledging the risks of misapplication and unintended outputs.\u003c/p\u003e\n"],["\u003cp\u003eGemini for Google Cloud has limitations such as producing unexpected output in edge cases, potentially generating inaccurate information, and lacking factuality, which can include hallucinated information or links.\u003c/p\u003e\n"],["\u003cp\u003eThe quality of Gemini's output is influenced by the data quality and accuracy of user prompts, and there is a potential for the amplification of societal biases present in its training data.\u003c/p\u003e\n"],["\u003cp\u003eGemini's performance can vary across languages and dialects, as it primarily evaluates fairness in American English, potentially resulting in inconsistent service quality for underrepresented language varieties.\u003c/p\u003e\n"],["\u003cp\u003eDespite being trained on Google Cloud technology, Gemini may lack the specialized knowledge required to offer accurate details on highly technical topics, and it does not have awareness of the user's specific environment in the Google Cloud console.\u003c/p\u003e\n"]]],[],null,["# Gemini Code Assist and responsible AI\n\nThis document describes how Gemini Code Assist is designed in\nview of the capabilities, limitations, and risks that are associated with\ngenerative AI.\n\nCapabilities and risks of large language models\n-----------------------------------------------\n\nLarge language models (LLMs) can perform many useful tasks such as the\nfollowing:\n\n- Translate language.\n- Summarize text.\n- Generate code and creative writing.\n- Power chatbots and virtual assistants.\n- Complement search engines and recommendation systems.\n\nAt the same time, the evolving technical capabilities of LLMs create the\npotential for misapplication, misuse, and unintended or unforeseen consequences.\n\nLLMs can generate output that you don't expect, including text that's offensive,\ninsensitive, or factually incorrect. Because LLMs are incredibly versatile, it\ncan be difficult to predict exactly what kinds of unintended or unforeseen\noutputs they might produce.\n\nGiven these risks and complexities, Gemini Code Assist is\ndesigned with [Google's AI principles](https://ai.google/responsibility/principles/)\nin mind. However, it's important for users to understand some of the limitations\nof Gemini Code Assist to work safely and responsibly.\n\nGemini Code Assist limitations\n------------------------------\n\nSome of the limitations that you might encounter using\nGemini Code Assist include (but aren't limited to) the following:\n\n- **Edge cases.** Edge cases refer to unusual, rare, or exceptional situations\n that aren't well represented in the training data. These cases can lead to\n limitations in the output of Gemini Code Assist models, such as\n model overconfidence, misinterpretation of context, or inappropriate outputs.\n\n- **Model hallucinations, grounding, and factuality.**\n Gemini Code Assist models might lack grounding and factuality\n in real-world knowledge, physical properties, or accurate understanding. This\n limitation can lead to model hallucinations, where\n Gemini Code Assist might generate outputs that are\n plausible-sounding but factually incorrect, irrelevant, inappropriate, or\n nonsensical. Hallucinations can also include fabricating links to web pages\n that don't exist and have never existed. For more information, see\n [Write better prompts for Gemini for Google Cloud](https://cloud.google.com/gemini/docs/discover/write-prompts).\n\n- **Data quality and tuning.** The quality, accuracy, and bias of the prompt\n data that's entered into Gemini Code Assist products can have a\n significant impact on its performance. If users enter inaccurate or incorrect\n prompts, Gemini Code Assist might return suboptimal or false\n responses.\n\n- **Bias amplification.** Language models can inadvertently amplify existing\n biases in their training data, leading to outputs that might further reinforce\n societal prejudices and unequal treatment of certain groups.\n\n- **Language quality.** While Gemini Code Assist yields\n impressive multilingual capabilities on the benchmarks that we evaluated\n against, the majority of our benchmarks (including all of the fairness\n evaluations) are in American English.\n\n Language models might provide inconsistent service quality to different users.\n For example, text generation might not be as effective for some dialects or\n language varieties because they are underrepresented in the training data.\n Performance might be worse for non-English languages or English language\n varieties with less representation.\n- **Fairness benchmarks and subgroups.** Google Research's fairness analyses of\n Gemini models don't provide an exhaustive account of the various\n potential risks. For example, we focus on biases along gender, race,\n ethnicity, and religion axes, but perform the analysis only on the American\n English language data and model outputs.\n\n- **Limited domain expertise.** Gemini models have been trained on\n Google Cloud technology, but it might lack the depth of knowledge that's\n required to provide accurate and detailed responses on highly specialized or\n technical topics, leading to superficial or incorrect information.\n\nGemini safety and toxicity filtering\n------------------------------------\n\nGemini Code Assist prompts and responses are checked against a\ncomprehensive list of safety attributes as applicable for each use case. These\nsafety attributes aim to filter out content that violates our\n[Acceptable Use Policy](https://cloud.google.com/terms/aup). If an output is\nconsidered harmful, the response will be blocked.\n\nWhat's next\n-----------\n\n- Learn more about [how Gemini Code Assist cites sources when helps you generate code](/gemini-code-assist/docs/works#how-when-gemini-cites-sources)."]]