Gemini Code Assist و هوش مصنوعی مسئول
با مجموعهها، منظم بمانید
ذخیره و طبقهبندی محتوا براساس اولویتهای شما.
این سند نحوه طراحی Gemini Code Assist را با توجه به قابلیتها، محدودیتها و خطرات مرتبط با هوش مصنوعی مولد توضیح میدهد.
قابلیت ها و خطرات مدل های زبان بزرگ
مدلهای زبان بزرگ (LLM) میتوانند بسیاری از وظایف مفید مانند موارد زیر را انجام دهند:
- ترجمه زبان
- خلاصه کردن متن
- کد و نوشتن خلاقانه تولید کنید.
- چت ربات های قدرتمند و دستیاران مجازی.
- مکمل موتورهای جستجو و سیستم های توصیه.
در عین حال، قابلیتهای فنی در حال تکامل LLMها، پتانسیل استفاده نادرست، سوء استفاده و پیامدهای ناخواسته یا پیشبینی نشده را ایجاد میکند.
LLM ها می توانند خروجی هایی را تولید کنند که انتظارش را ندارید، از جمله متنی توهین آمیز، غیر حساس، یا از نظر واقعی نادرست. از آنجایی که LLM ها بسیار متنوع هستند، پیش بینی اینکه دقیقاً چه نوع خروجی های ناخواسته یا پیش بینی نشده ای ممکن است تولید کنند، می تواند دشوار باشد.
با توجه به این خطرات و پیچیدگی ها، Gemini Code Assist با در نظر گرفتن اصول هوش مصنوعی گوگل طراحی شده است. با این حال، درک برخی از محدودیتهای Gemini Code Assist برای کار ایمن و مسئولانه برای کاربران مهم است.
محدودیتهای Gemini Code Assist
برخی از محدودیتهایی که ممکن است در استفاده از Gemini Code Assist با آنها مواجه شوید، شامل موارد زیر است (اما محدود به آنها نیست):
موارد لبه. موارد لبه به موقعیتهای غیرعادی، نادر یا استثنایی اشاره دارد که به خوبی در دادههای آموزشی نشان داده نمیشوند. این موارد میتواند منجر به محدودیتهایی در خروجی مدلهای Gemini Code Assist شود، مانند اعتماد بیش از حد مدل، تفسیر نادرست زمینه، یا خروجیهای نامناسب.
توهمات، زمینه سازی و واقعیت را مدل کنید. مدلهای Gemini Code Assist ممکن است فاقد پایه و واقعیت در دانش دنیای واقعی، ویژگیهای فیزیکی یا درک دقیق باشند. این محدودیت میتواند منجر به توهمهای مدل شود، جایی که Gemini Code Assist ممکن است خروجیهایی تولید کند که صدایی معقول دارند اما از نظر واقعی نادرست، نامربوط، نامناسب یا بیمعنی هستند. توهمات همچنین می تواند شامل ساخت پیوندهایی به صفحات وب باشد که وجود ندارند و هرگز وجود نداشته اند. برای اطلاعات بیشتر، به نوشتن دستورات بهتر برای Gemini برای Google Cloud مراجعه کنید.
کیفیت داده ها و تنظیم. کیفیت، دقت و سوگیری دادههای سریعی که در محصولات Gemini Code Assist وارد میشود، میتواند تأثیر قابلتوجهی بر عملکرد آن داشته باشد. اگر کاربران درخواستهای نادرست یا نادرست وارد کنند، Gemini Code Assist ممکن است پاسخهای نابهینه یا نادرست را ارائه دهد.
تقویت بایاس مدلهای زبانی میتوانند ناخواسته سوگیریهای موجود را در دادههای آموزشی خود تقویت کنند و به خروجیهایی منجر شوند که ممکن است تعصبات اجتماعی و رفتار نابرابر با گروههای خاص را بیشتر تقویت کند.
کیفیت زبان در حالی که Gemini Code Assist دارای قابلیتهای چندزبانه چشمگیری در معیارهایی است که ما بر اساس آنها ارزیابی کردیم، اکثر معیارهای ما (شامل همه ارزیابیهای منصفانه) به انگلیسی آمریکایی هستند.
مدلهای زبان ممکن است کیفیت خدمات ناسازگاری را به کاربران مختلف ارائه دهند. برای مثال، تولید متن ممکن است برای برخی از لهجهها یا زبانهای مختلف مؤثر نباشد زیرا در دادههای آموزشی نشان داده نمیشوند. ممکن است عملکرد برای زبان های غیر انگلیسی یا انواع زبان انگلیسی با بازنمایی کمتر بدتر باشد.
معیارهای انصاف و زیر گروه ها. تحلیلهای منصفانه Google Research از مدلهای Gemini گزارش جامعی از خطرات احتمالی مختلف ارائه نمیکند. به عنوان مثال، ما بر روی سوگیری ها در امتداد محورهای جنسیتی، نژادی، قومیتی و مذهبی تمرکز می کنیم، اما تجزیه و تحلیل را تنها بر روی داده های زبان انگلیسی آمریکایی و خروجی های مدل انجام می دهیم.
تخصص دامنه محدود مدلهای Gemini بر روی فناوری Google Cloud آموزش دیدهاند، اما ممکن است فاقد عمق دانش لازم برای ارائه پاسخهای دقیق و دقیق در مورد موضوعات بسیار تخصصی یا فنی باشد که منجر به اطلاعات سطحی یا نادرست شود.
فیلتر ایمنی و سمیت Gemini
درخواستها و پاسخهای Gemini Code Assist با فهرست جامعی از ویژگیهای ایمنی که برای هر مورد استفاده قابل اجرا است بررسی میشوند. هدف این ویژگیهای ایمنی فیلتر کردن محتوایی است که خطمشی استفاده قابل قبول ما را نقض میکند. اگر خروجی مضر در نظر گرفته شود، پاسخ مسدود خواهد شد.
بعدش چی
جز در مواردی که غیر از این ذکر شده باشد،محتوای این صفحه تحت مجوز Creative Commons Attribution 4.0 License است. نمونه کدها نیز دارای مجوز Apache 2.0 License است. برای اطلاع از جزئیات، به خطمشیهای سایت Google Developers مراجعه کنید. جاوا علامت تجاری ثبتشده Oracle و/یا شرکتهای وابسته به آن است.
تاریخ آخرین بهروزرسانی 2025-08-30 بهوقت ساعت هماهنگ جهانی.
[null,null,["تاریخ آخرین بهروزرسانی 2025-08-30 بهوقت ساعت هماهنگ جهانی."],[[["\u003cp\u003eGemini, a large language model (LLM), is designed with Google's AI principles to offer capabilities like language translation, text summarization, and code generation, while acknowledging the risks of misapplication and unintended outputs.\u003c/p\u003e\n"],["\u003cp\u003eGemini for Google Cloud has limitations such as producing unexpected output in edge cases, potentially generating inaccurate information, and lacking factuality, which can include hallucinated information or links.\u003c/p\u003e\n"],["\u003cp\u003eThe quality of Gemini's output is influenced by the data quality and accuracy of user prompts, and there is a potential for the amplification of societal biases present in its training data.\u003c/p\u003e\n"],["\u003cp\u003eGemini's performance can vary across languages and dialects, as it primarily evaluates fairness in American English, potentially resulting in inconsistent service quality for underrepresented language varieties.\u003c/p\u003e\n"],["\u003cp\u003eDespite being trained on Google Cloud technology, Gemini may lack the specialized knowledge required to offer accurate details on highly technical topics, and it does not have awareness of the user's specific environment in the Google Cloud console.\u003c/p\u003e\n"]]],[],null,["# Gemini Code Assist and responsible AI\n\nThis document describes how Gemini Code Assist is designed in\nview of the capabilities, limitations, and risks that are associated with\ngenerative AI.\n\nCapabilities and risks of large language models\n-----------------------------------------------\n\nLarge language models (LLMs) can perform many useful tasks such as the\nfollowing:\n\n- Translate language.\n- Summarize text.\n- Generate code and creative writing.\n- Power chatbots and virtual assistants.\n- Complement search engines and recommendation systems.\n\nAt the same time, the evolving technical capabilities of LLMs create the\npotential for misapplication, misuse, and unintended or unforeseen consequences.\n\nLLMs can generate output that you don't expect, including text that's offensive,\ninsensitive, or factually incorrect. Because LLMs are incredibly versatile, it\ncan be difficult to predict exactly what kinds of unintended or unforeseen\noutputs they might produce.\n\nGiven these risks and complexities, Gemini Code Assist is\ndesigned with [Google's AI principles](https://ai.google/responsibility/principles/)\nin mind. However, it's important for users to understand some of the limitations\nof Gemini Code Assist to work safely and responsibly.\n\nGemini Code Assist limitations\n------------------------------\n\nSome of the limitations that you might encounter using\nGemini Code Assist include (but aren't limited to) the following:\n\n- **Edge cases.** Edge cases refer to unusual, rare, or exceptional situations\n that aren't well represented in the training data. These cases can lead to\n limitations in the output of Gemini Code Assist models, such as\n model overconfidence, misinterpretation of context, or inappropriate outputs.\n\n- **Model hallucinations, grounding, and factuality.**\n Gemini Code Assist models might lack grounding and factuality\n in real-world knowledge, physical properties, or accurate understanding. This\n limitation can lead to model hallucinations, where\n Gemini Code Assist might generate outputs that are\n plausible-sounding but factually incorrect, irrelevant, inappropriate, or\n nonsensical. Hallucinations can also include fabricating links to web pages\n that don't exist and have never existed. For more information, see\n [Write better prompts for Gemini for Google Cloud](https://cloud.google.com/gemini/docs/discover/write-prompts).\n\n- **Data quality and tuning.** The quality, accuracy, and bias of the prompt\n data that's entered into Gemini Code Assist products can have a\n significant impact on its performance. If users enter inaccurate or incorrect\n prompts, Gemini Code Assist might return suboptimal or false\n responses.\n\n- **Bias amplification.** Language models can inadvertently amplify existing\n biases in their training data, leading to outputs that might further reinforce\n societal prejudices and unequal treatment of certain groups.\n\n- **Language quality.** While Gemini Code Assist yields\n impressive multilingual capabilities on the benchmarks that we evaluated\n against, the majority of our benchmarks (including all of the fairness\n evaluations) are in American English.\n\n Language models might provide inconsistent service quality to different users.\n For example, text generation might not be as effective for some dialects or\n language varieties because they are underrepresented in the training data.\n Performance might be worse for non-English languages or English language\n varieties with less representation.\n- **Fairness benchmarks and subgroups.** Google Research's fairness analyses of\n Gemini models don't provide an exhaustive account of the various\n potential risks. For example, we focus on biases along gender, race,\n ethnicity, and religion axes, but perform the analysis only on the American\n English language data and model outputs.\n\n- **Limited domain expertise.** Gemini models have been trained on\n Google Cloud technology, but it might lack the depth of knowledge that's\n required to provide accurate and detailed responses on highly specialized or\n technical topics, leading to superficial or incorrect information.\n\nGemini safety and toxicity filtering\n------------------------------------\n\nGemini Code Assist prompts and responses are checked against a\ncomprehensive list of safety attributes as applicable for each use case. These\nsafety attributes aim to filter out content that violates our\n[Acceptable Use Policy](https://cloud.google.com/terms/aup). If an output is\nconsidered harmful, the response will be blocked.\n\nWhat's next\n-----------\n\n- Learn more about [how Gemini Code Assist cites sources when helps you generate code](/gemini-code-assist/docs/works#how-when-gemini-cites-sources)."]]