Gemini Code Assist ו-AI אחראי
קל לארגן דפים בעזרת אוספים
אפשר לשמור ולסווג תוכן על סמך ההעדפות שלך.
במסמך הזה מתוארת תכנון התכונה Gemini Code Assist בהתאם ליכולות, למגבלות ולסיכונים שקשורים ל-AI גנרטיבי.
היכולות והסיכונים של מודלים גדולים של שפה
מודלים גדולים של שפה (LLMs) יכולים לבצע משימות מועילות רבות, כמו:
- שפת התרגום.
- לסכם טקסט.
- יצירת קוד וכתיבה יצירתית.
- הפעלת צ'אט בוטים ועוזרים וירטואליים.
- להשלים מנועי חיפוש ומערכות המלצות.
עם זאת, היכולות הטכניות המתפתחות של מודלים מסוג LLM יוצרות פוטנציאל לשימוש שגוי, שימוש לרעה ותוצאות לא רצויות או בלתי צפויות.
מודלים של LLM יכולים ליצור תוצאות לא צפויות, כולל טקסט פוגעני, לא רגיש או לא מדויק מבחינה עובדתית. מכיוון שמודלים של LLM הם גמישים מאוד, קשה לחזות בדיוק אילו סוגי פלט לא מכוונים או בלתי צפויים הם עשויים לייצר.
לאור הסיכונים והמורכבויות האלה, התכונה Gemini Code Assist תוכננה בהתאם לעקרונות ה-AI של Google. עם זאת, חשוב שהמשתמשים יבינו חלק מהמגבלות של Gemini Code Assist כדי לעבוד בצורה בטוחה ואחראית.
המגבלות של Gemini Code Assist
חלק מהמגבלות שאתם עשויים להיתקל בהן ב-Gemini Code Assist כוללות (בין היתר):
מקרים קיצוניים מקרים קיצוניים הם מצבים חריגים, נדירים או יוצאי דופן שלא מיוצגים היטב בנתוני האימון. במקרים כאלה, יכול להיות שיחולו מגבלות על הפלט של המודלים של Gemini Code Assist, כמו ביטחון יתר במודל, פרשנות שגויה של ההקשר או פלט לא הולם.
מודלים של הזיות, התמקדות בנושא ועובדות
יכול להיות שמודלים של Gemini Code Assist לא יהיו מבוססים על ידע מהעולם האמיתי, על מאפיינים פיזיים או על הבנה מדויקת. המגבלה הזו עלולה להוביל להזיות של מודל, שבהן Gemini Code Assist עשוי ליצור פלט שנשמע סביר אבל העובדות שבו שגויות, לא רלוונטי, לא הולם או לא הגיוני. תגובות לא תואמות נתונים יכולות לכלול גם קישורים מזויפים לדפי אינטרנט שלא קיימים ומעולם לא היו קיימים. למידע נוסף, תוכלו לקרוא את המאמר כתיבה של הנחיות טובות יותר ל-Gemini ל-Google Cloud.
איכות הנתונים והתאמה אישית האיכות, הדיוק וההטיה של נתוני ההנחיה שמוזנים למוצרי Gemini Code Assist יכולים להשפיע באופן משמעותי על הביצועים שלהם. אם המשתמשים מזינים הנחיות לא מדויקות או שגויות, יכול להיות ש-Gemini Code Assist יחזיר תשובות שגויות או לא אופטימליות.
הגברת הטיה מודלים של שפה עלולים להגביר בטעות את ההטיות הקיימות בנתוני האימון שלהם, וכתוצאה מכך להוביל לתוצאות שעשויות לחזק עוד יותר את הדעות הקדומות בחברה ואת הטיפול השונה בקבוצות מסוימות.
איכות השפה ל-Gemini Code Assist יש יכולות מרשימות בכמה שפות במסגרת מדדי ההשוואה שבדקנו, אבל רוב מדדי ההשוואה שלנו (כולל כל הבדיקות של הוגנות) הם באנגלית אמריקאית.
מודלים בסיסיים של שפה עשויים לספק איכות שירות לא עקבית למשתמשים שונים.
לדוגמה, יכול להיות יצירת הטקסט לא תהיה יעילה באותה מידה לגבי דיאלקטים מסוימים או וריאציות של שפה מסוימת, כי הם מיוצגים באופן לא פרופורציונלי בנתוני האימון.
יכול להיות שהביצועים יהיו נמוכים יותר בשפות שאינן אנגלית או בזנים של אנגלית עם ייצוג נמוך יותר.
יעדים להשגת הוגנות וקבוצות משנה ניתוחי הצדק של Google Research במודלים של Gemini לא מספקים תיאור מקיף של הסיכונים הפוטנציאליים השונים. לדוגמה, אנחנו מתמקדים בהטיות לפי מגדר, גזע, אתניות ודת, אבל מבצעים את הניתוח רק על הנתונים בשפה האנגלית האמריקאית ועל תוצאות המודל.
מומחיות מוגבלת בתחום המודלים של Gemini הוכשרו בטכנולוגיית Google Cloud, אבל יכול להיות שהם לא מספיק מעמיקים כדי לספק תשובות מדויקות ומפורטות בנושאים טכניים או מיוחדים מאוד, וכתוצאה מכך יכול להיות שהמידע שהם מספקים יהיה שטחי או שגוי.
סינון של תוכן מסוכן ורעיל ב-Gemini
ההנחיות והתשובות של Gemini Code Assist נבדקות מול רשימה מקיפה של מאפייני בטיחות שרלוונטיים לכל תרחיש לדוגמה. מאפייני הבטיחות האלה נועדו לסנן תוכן שמפר את מדיניות השימוש המקובל שלנו. אם הפלט נחשב מזיק, התגובה תיחסם.
המאמרים הבאים
אלא אם צוין אחרת, התוכן של דף זה הוא ברישיון Creative Commons Attribution 4.0 ודוגמאות הקוד הן ברישיון Apache 2.0. לפרטים, ניתן לעיין במדיניות האתר Google Developers. Java הוא סימן מסחרי רשום של חברת Oracle ו/או של השותפים העצמאיים שלה.
עדכון אחרון: 2025-08-31 (שעון UTC).
[null,null,["עדכון אחרון: 2025-08-31 (שעון UTC)."],[[["\u003cp\u003eGemini, a large language model (LLM), is designed with Google's AI principles to offer capabilities like language translation, text summarization, and code generation, while acknowledging the risks of misapplication and unintended outputs.\u003c/p\u003e\n"],["\u003cp\u003eGemini for Google Cloud has limitations such as producing unexpected output in edge cases, potentially generating inaccurate information, and lacking factuality, which can include hallucinated information or links.\u003c/p\u003e\n"],["\u003cp\u003eThe quality of Gemini's output is influenced by the data quality and accuracy of user prompts, and there is a potential for the amplification of societal biases present in its training data.\u003c/p\u003e\n"],["\u003cp\u003eGemini's performance can vary across languages and dialects, as it primarily evaluates fairness in American English, potentially resulting in inconsistent service quality for underrepresented language varieties.\u003c/p\u003e\n"],["\u003cp\u003eDespite being trained on Google Cloud technology, Gemini may lack the specialized knowledge required to offer accurate details on highly technical topics, and it does not have awareness of the user's specific environment in the Google Cloud console.\u003c/p\u003e\n"]]],[],null,["# Gemini Code Assist and responsible AI\n\nThis document describes how Gemini Code Assist is designed in\nview of the capabilities, limitations, and risks that are associated with\ngenerative AI.\n\nCapabilities and risks of large language models\n-----------------------------------------------\n\nLarge language models (LLMs) can perform many useful tasks such as the\nfollowing:\n\n- Translate language.\n- Summarize text.\n- Generate code and creative writing.\n- Power chatbots and virtual assistants.\n- Complement search engines and recommendation systems.\n\nAt the same time, the evolving technical capabilities of LLMs create the\npotential for misapplication, misuse, and unintended or unforeseen consequences.\n\nLLMs can generate output that you don't expect, including text that's offensive,\ninsensitive, or factually incorrect. Because LLMs are incredibly versatile, it\ncan be difficult to predict exactly what kinds of unintended or unforeseen\noutputs they might produce.\n\nGiven these risks and complexities, Gemini Code Assist is\ndesigned with [Google's AI principles](https://ai.google/responsibility/principles/)\nin mind. However, it's important for users to understand some of the limitations\nof Gemini Code Assist to work safely and responsibly.\n\nGemini Code Assist limitations\n------------------------------\n\nSome of the limitations that you might encounter using\nGemini Code Assist include (but aren't limited to) the following:\n\n- **Edge cases.** Edge cases refer to unusual, rare, or exceptional situations\n that aren't well represented in the training data. These cases can lead to\n limitations in the output of Gemini Code Assist models, such as\n model overconfidence, misinterpretation of context, or inappropriate outputs.\n\n- **Model hallucinations, grounding, and factuality.**\n Gemini Code Assist models might lack grounding and factuality\n in real-world knowledge, physical properties, or accurate understanding. This\n limitation can lead to model hallucinations, where\n Gemini Code Assist might generate outputs that are\n plausible-sounding but factually incorrect, irrelevant, inappropriate, or\n nonsensical. Hallucinations can also include fabricating links to web pages\n that don't exist and have never existed. For more information, see\n [Write better prompts for Gemini for Google Cloud](https://cloud.google.com/gemini/docs/discover/write-prompts).\n\n- **Data quality and tuning.** The quality, accuracy, and bias of the prompt\n data that's entered into Gemini Code Assist products can have a\n significant impact on its performance. If users enter inaccurate or incorrect\n prompts, Gemini Code Assist might return suboptimal or false\n responses.\n\n- **Bias amplification.** Language models can inadvertently amplify existing\n biases in their training data, leading to outputs that might further reinforce\n societal prejudices and unequal treatment of certain groups.\n\n- **Language quality.** While Gemini Code Assist yields\n impressive multilingual capabilities on the benchmarks that we evaluated\n against, the majority of our benchmarks (including all of the fairness\n evaluations) are in American English.\n\n Language models might provide inconsistent service quality to different users.\n For example, text generation might not be as effective for some dialects or\n language varieties because they are underrepresented in the training data.\n Performance might be worse for non-English languages or English language\n varieties with less representation.\n- **Fairness benchmarks and subgroups.** Google Research's fairness analyses of\n Gemini models don't provide an exhaustive account of the various\n potential risks. For example, we focus on biases along gender, race,\n ethnicity, and religion axes, but perform the analysis only on the American\n English language data and model outputs.\n\n- **Limited domain expertise.** Gemini models have been trained on\n Google Cloud technology, but it might lack the depth of knowledge that's\n required to provide accurate and detailed responses on highly specialized or\n technical topics, leading to superficial or incorrect information.\n\nGemini safety and toxicity filtering\n------------------------------------\n\nGemini Code Assist prompts and responses are checked against a\ncomprehensive list of safety attributes as applicable for each use case. These\nsafety attributes aim to filter out content that violates our\n[Acceptable Use Policy](https://cloud.google.com/terms/aup). If an output is\nconsidered harmful, the response will be blocked.\n\nWhat's next\n-----------\n\n- Learn more about [how Gemini Code Assist cites sources when helps you generate code](/gemini-code-assist/docs/works#how-when-gemini-cites-sources)."]]