أداة Gemini Code Assist والذكاء الاصطناعي المسؤول
تنظيم صفحاتك في مجموعات
يمكنك حفظ المحتوى وتصنيفه حسب إعداداتك المفضّلة.
يصف هذا المستند كيفية تصميم ميزة "مساعدة الترميز" في Gemini بالاستناد إلى القدرات والقيود والمخاطر المرتبطة بالذكاء الاصطناعي التوليدي.
إمكانات النماذج اللغوية الكبيرة ومخاطرها
يمكن للنماذج اللغوية الكبيرة (LLM) تنفيذ العديد من المهام المفيدة، مثل:
- ترجمة اللغة
- تلخيص النص
- إنشاء الرموز البرمجية والكتابة الإبداعية
- تحسين أداء برامج الدردشة والروبوتات الافتراضية
- تكمل محركات البحث وأنظمة الاقتراحات.
في الوقت نفسه، تؤدي الإمكانات الفنية المتطورة لتكنولوجيات الذكاء الاصطناعي اللغوي إلى احتمال استخدامها بشكل خاطئ أو إساءة استخدامها، كما قد تؤدي إلى عواقب غير مقصودة أو غير متوقّعة.
يمكن أن تُنشئ النماذج اللغوية الكبيرة نتائج غير متوقّعة، بما في ذلك نص مسيء أو
غير حساس أو غير دقيق من الناحية الواقعية. ولأنّ النماذج اللغوية الكبيرة متعددة الاستخدامات بشكلٍ كبير،
قد يكون من الصعب التنبؤ بدقة بأنواع المخرجات
غير المقصودة أو غير المتوقّعة التي قد تنتجها.
ونظرًا لهذه المخاطر والتعقيدات، تم
تصميم ميزة "مساعدة ترميز Gemini" استنادًا إلى مبادئ الذكاء الاصطناعي من Google. ومع ذلك، من المهم أن يفهم المستخدمون بعض القيود المفروضة على
"مساعدة ترميز Gemini" لكي يعملوا بأمان وبمسؤولية.
قيود Gemini Code Assist
في ما يلي بعض القيود التي قد تواجهها عند استخدام
Gemini Code Assist (ولكن لا تقتصر عليها):
الحالات الهامشية: تشير الحالات الحدّية إلى المواقف غير المعتادة أو النادرة أو الاستثنائية
التي لا يتم تمثيلها بشكل جيد في بيانات التدريب. يمكن أن تؤدي هذه الحالات إلى
قيود في نتائج نماذج Gemini Code Assist، مثل
الثقة المفرطة في النموذج أو سوء تفسير السياق أو النتائج غير الملائمة.
نمذجة الهلوسة والواقعية والحقائق
قد لا تستند نماذج Gemini Code Assist إلى الحقائق وعدم الدقة
في المعرفة الواقعية أو الخصائص الفيزيائية أو الفهم الدقيق. يمكن أن يؤدي هذا
الحدّ إلى حدوث هلوسات في النماذج، حيث
قد يُنشئ Gemini Code Assist نتائج
تبدو معقولة ولكنّها غير صحيحة من الناحية الواقعية أو غير ملائمة أو
غير منطقية. يمكن أن تشمل الهلوسة أيضًا إنشاء روابط مزيّفة لصفحات ويب
غير متوفّرة ولم يسبق أن كانت متوفّرة. لمزيد من المعلومات، يُرجى الاطّلاع على مقالة
كتابة طلبات أفضل لخدمة Gemini في Google Cloud.
جودة البيانات وضبطها: يمكن أن تؤثر جودة بيانات الطلب
ودقتها وانحيازها التي يتم إدخالها في منتجات Gemini Code Assist
بشكل كبير في أدائها. إذا أدخل المستخدمون طلبات غير دقيقة أو خاطئة، قد يعرض Gemini Code Assist ردودًا غير مثالية أو خاطئة.
تضخيم الانحياز: يمكن أن تعزّز نماذج اللغة بدون قصد الأحكام المسبقة المتوفّرة في بيانات التدريب، ما يؤدي إلى نتائج قد تعزّز بدورها الأحكام المسبقة المجتمعية والمعاملة غير المتكافئة لفئات معيّنة.
جودة اللغة: على الرغم من أنّ ميزة "مساعدة رموز Gemini" توفّر إمكانات مُبهرة لعدّة لغات في المقاييس التي قيّمنا أداءها، فإنّ معظم المقاييس (بما في ذلك جميع تقييمات المساواة) هي باللغة الإنجليزية الأمريكية.
قد توفّر النماذج اللغوية جودة خدمة غير متّسقة للمستخدمين المختلفين.
على سبيل المثال، قد لا يكون إنشاء النصوص فعّالاً بقدر كبير مع بعض اللهجات أو
الصيغ اللغوية لأنّها غير ممثّلة بشكل كافٍ في بيانات التدريب.
قد يكون الأداء أسوأ بالنسبة إلى اللغات غير الإنجليزية أو اللهجات القليلة التمثيل للغة الإنجليزية.
مقاييس العدالة والمجموعات الفرعية: لا توفّر تحليلات الإنصاف التي يجريها فريق "أبحاث Google" لنماذج Gemini وصفًا شاملاً للمخاطر المحتملة المختلفة. على سبيل المثال، نركّز على الانحيازات على مستوى محاور الجنس والعِرق
والإثنية والدين، ولكنّنا لا نُجري التحليل إلا على بيانات اللغة
الإنجليزية الأمريكية ومخرجات النماذج.
خبرة محدودة في المجال تم تدريب نماذج Gemini على
تكنولوجيا Google Cloud، ولكن قد لا تتضمّن المعرفة المتعمّقة التي
يلزمها تقديم ردود دقيقة ومفصّلة حول مواضيع فنية أو
متخصّصة للغاية، ما يؤدي إلى تقديم معلومات سطحية أو غير صحيحة.
فلترة المحتوى السام والآمن في Gemini
يتم التحقّق من طلبات Gemini Code Assist وردودها مقارنةً بجدول غني بسمات السلامة حسب ما ينطبق على كل حالة استخدام. تهدف سمات الأمان هذه إلى فلترة المحتوى الذي ينتهك
سياسة الاستخدام المقبول. إذا تم اعتبار النتيجة
ضارة، سيتم حظر الاستجابة.
الخطوات التالية
إنّ محتوى هذه الصفحة مرخّص بموجب ترخيص Creative Commons Attribution 4.0 ما لم يُنصّ على خلاف ذلك، ونماذج الرموز مرخّصة بموجب ترخيص Apache 2.0. للاطّلاع على التفاصيل، يُرجى مراجعة سياسات موقع Google Developers. إنّ Java هي علامة تجارية مسجَّلة لشركة Oracle و/أو شركائها التابعين.
تاريخ التعديل الأخير: 2025-08-31 (حسب التوقيت العالمي المتفَّق عليه)
[null,null,["تاريخ التعديل الأخير: 2025-08-31 (حسب التوقيت العالمي المتفَّق عليه)"],[[["\u003cp\u003eGemini, a large language model (LLM), is designed with Google's AI principles to offer capabilities like language translation, text summarization, and code generation, while acknowledging the risks of misapplication and unintended outputs.\u003c/p\u003e\n"],["\u003cp\u003eGemini for Google Cloud has limitations such as producing unexpected output in edge cases, potentially generating inaccurate information, and lacking factuality, which can include hallucinated information or links.\u003c/p\u003e\n"],["\u003cp\u003eThe quality of Gemini's output is influenced by the data quality and accuracy of user prompts, and there is a potential for the amplification of societal biases present in its training data.\u003c/p\u003e\n"],["\u003cp\u003eGemini's performance can vary across languages and dialects, as it primarily evaluates fairness in American English, potentially resulting in inconsistent service quality for underrepresented language varieties.\u003c/p\u003e\n"],["\u003cp\u003eDespite being trained on Google Cloud technology, Gemini may lack the specialized knowledge required to offer accurate details on highly technical topics, and it does not have awareness of the user's specific environment in the Google Cloud console.\u003c/p\u003e\n"]]],[],null,["# Gemini Code Assist and responsible AI\n\nThis document describes how Gemini Code Assist is designed in\nview of the capabilities, limitations, and risks that are associated with\ngenerative AI.\n\nCapabilities and risks of large language models\n-----------------------------------------------\n\nLarge language models (LLMs) can perform many useful tasks such as the\nfollowing:\n\n- Translate language.\n- Summarize text.\n- Generate code and creative writing.\n- Power chatbots and virtual assistants.\n- Complement search engines and recommendation systems.\n\nAt the same time, the evolving technical capabilities of LLMs create the\npotential for misapplication, misuse, and unintended or unforeseen consequences.\n\nLLMs can generate output that you don't expect, including text that's offensive,\ninsensitive, or factually incorrect. Because LLMs are incredibly versatile, it\ncan be difficult to predict exactly what kinds of unintended or unforeseen\noutputs they might produce.\n\nGiven these risks and complexities, Gemini Code Assist is\ndesigned with [Google's AI principles](https://ai.google/responsibility/principles/)\nin mind. However, it's important for users to understand some of the limitations\nof Gemini Code Assist to work safely and responsibly.\n\nGemini Code Assist limitations\n------------------------------\n\nSome of the limitations that you might encounter using\nGemini Code Assist include (but aren't limited to) the following:\n\n- **Edge cases.** Edge cases refer to unusual, rare, or exceptional situations\n that aren't well represented in the training data. These cases can lead to\n limitations in the output of Gemini Code Assist models, such as\n model overconfidence, misinterpretation of context, or inappropriate outputs.\n\n- **Model hallucinations, grounding, and factuality.**\n Gemini Code Assist models might lack grounding and factuality\n in real-world knowledge, physical properties, or accurate understanding. This\n limitation can lead to model hallucinations, where\n Gemini Code Assist might generate outputs that are\n plausible-sounding but factually incorrect, irrelevant, inappropriate, or\n nonsensical. Hallucinations can also include fabricating links to web pages\n that don't exist and have never existed. For more information, see\n [Write better prompts for Gemini for Google Cloud](https://cloud.google.com/gemini/docs/discover/write-prompts).\n\n- **Data quality and tuning.** The quality, accuracy, and bias of the prompt\n data that's entered into Gemini Code Assist products can have a\n significant impact on its performance. If users enter inaccurate or incorrect\n prompts, Gemini Code Assist might return suboptimal or false\n responses.\n\n- **Bias amplification.** Language models can inadvertently amplify existing\n biases in their training data, leading to outputs that might further reinforce\n societal prejudices and unequal treatment of certain groups.\n\n- **Language quality.** While Gemini Code Assist yields\n impressive multilingual capabilities on the benchmarks that we evaluated\n against, the majority of our benchmarks (including all of the fairness\n evaluations) are in American English.\n\n Language models might provide inconsistent service quality to different users.\n For example, text generation might not be as effective for some dialects or\n language varieties because they are underrepresented in the training data.\n Performance might be worse for non-English languages or English language\n varieties with less representation.\n- **Fairness benchmarks and subgroups.** Google Research's fairness analyses of\n Gemini models don't provide an exhaustive account of the various\n potential risks. For example, we focus on biases along gender, race,\n ethnicity, and religion axes, but perform the analysis only on the American\n English language data and model outputs.\n\n- **Limited domain expertise.** Gemini models have been trained on\n Google Cloud technology, but it might lack the depth of knowledge that's\n required to provide accurate and detailed responses on highly specialized or\n technical topics, leading to superficial or incorrect information.\n\nGemini safety and toxicity filtering\n------------------------------------\n\nGemini Code Assist prompts and responses are checked against a\ncomprehensive list of safety attributes as applicable for each use case. These\nsafety attributes aim to filter out content that violates our\n[Acceptable Use Policy](https://cloud.google.com/terms/aup). If an output is\nconsidered harmful, the response will be blocked.\n\nWhat's next\n-----------\n\n- Learn more about [how Gemini Code Assist cites sources when helps you generate code](/gemini-code-assist/docs/works#how-when-gemini-cites-sources)."]]