Gemini Code Assist と責任ある AI
コレクションでコンテンツを整理
必要に応じて、コンテンツの保存と分類を行います。
このドキュメントでは、生成 AI に関連する機能、制限事項、リスクを考慮して、Gemini Code Assist がどのように設計されているかについて説明します。
大規模言語モデルの機能とリスク
大規模言語モデル(LLM)は、次のような多くの有用なタスクを実行できます。
- 言語を翻訳する。
- テキストを要約する。
- コードとクリエイティブ ライティングを生成する。
- chatbot と仮想アシスタントを強化する。
- 検索エンジンとレコメンデーション システムを補完する。
LLM の技術的な機能は進化を続けており、誤用や不正使用、意図しない結果や予想外の結果を生む可能性があります。
LLM では、不適切なテキスト、配慮に欠けるいテキスト、事実と異なるテキストなど、予期しない出力が生成される場合があります。LLM は非常に汎用性が高いため、どのような種類の意図しない出力や予期しない出力が作成されるかを正確に予測することは困難です。
こうしたリスクと複雑さを考慮して、Gemini Code Assist は Google の AI に関する原則を念頭に置いて設計されています。ただし、安全かつ責任を持って機能するように、ユーザーが Gemini Code Assist の制限事項を理解しておくことが重要です。
Gemini Code Assist の制限事項
Gemini Code Assist を使用する際に発生する可能性のある制限事項には、次のようなものがあります(ただし、これらに限定されません)。
エッジケース。エッジケースとは、トレーニング データで十分に表現されていない、一般的でない状況、まれな状況、または例外的な状況を指します。このような場合は、モデルの過度の信頼、コンテキストの解釈の誤り、不適切な出力などの Gemini Code Assist モデルの出力の制限につながる可能性があります。
モデルのハルシネーション、根拠、事実。Gemini Code Assist モデルには、実世界の知識、物理的特性、または正確な理解に関する根拠と真正性が欠落している場合があります。この制限により、モデルのハルシネーションにつながる可能性があります。これにより、Gemini Code Assist は、もっともらしい内容であるかのように聞こえるものの、事実とは異なる、無関係、不適切、または無意味な出力を生成する場合があります。ハルシネーションには、存在しないウェブページや、これまで存在したことのないウェブサイトへのリンクの作成も含まれることがあります。詳細については、Gemini for Google Cloud により適したプロンプトを作成するをご覧ください。
データ品質とチューニング。Gemini Code Assist プロダクトに入力されるプロンプト データの品質、精度、バイアスは、パフォーマンスに大きな影響を与える可能性があります。ユーザーが不正確な、または誤ったプロンプトを入力すると、Gemini Code Assist が最適ではないレスポンスや誤ったレスポンスを返す可能性があります。
バイアス増幅。: 言語モデルによってトレーニング データに存在するバイアスが意図せず増幅されて、社会的偏見や特定のグループに対する不平等な扱いをさらに強める結果につながる可能性があります。
言語の品質。Gemini Code Assist は、評価済みのベンチマークに関して優れた多言語機能を有することを示していますが、ベンチマークのほとんど(すべての公平性評価を含む)はアメリカ英語によるものです。
言語モデルによって、ユーザーごとに提供されるサービスの品質が異なる場合があります。たとえば、一部の言語や言語のバリエーションでは、トレーニング データでの表現が少なくなるため、テキスト生成が効果的でない場合があります。表現の少ない英語以外の言語や英語のバリエーションでは、パフォーマンスが低下する可能性があります。
公平性のベンチマークとサブグループ。Google Research の Gemini モデルの公平性分析では、さまざまなリスクの可能性について包括的な説明はできません。たとえば、性別、人種、民族、宗教の軸に沿ったバイアスに注目していますが、分析はアメリカ英語のデータとモデルの出力に対してのみ行います。
ドメインに関する限定された専門知識。Gemini モデルは Google Cloud テクノロジーでトレーニングされていますが、高度に専門的なトピックや技術的トピックに関する正確で詳細な回答に必要な知識の深さが不足しているため、表面的または不正確な情報につながる可能性があります。
Gemini の安全性と有害性に関するフィルタリング
Gemini Code Assist のプロンプトとレスポンスは、各ユースケースに適用される安全性属性の包括的なリストと照合されます。これらの安全属性は、利用規定に違反するコンテンツを除外することを目的としています。出力が有害と見なされた場合、レスポンスはブロックされます。
次のステップ
特に記載のない限り、このページのコンテンツはクリエイティブ・コモンズの表示 4.0 ライセンスにより使用許諾されます。コードサンプルは Apache 2.0 ライセンスにより使用許諾されます。詳しくは、Google Developers サイトのポリシーをご覧ください。Java は Oracle および関連会社の登録商標です。
最終更新日 2025-08-31 UTC。
[null,null,["最終更新日 2025-08-31 UTC。"],[[["\u003cp\u003eGemini, a large language model (LLM), is designed with Google's AI principles to offer capabilities like language translation, text summarization, and code generation, while acknowledging the risks of misapplication and unintended outputs.\u003c/p\u003e\n"],["\u003cp\u003eGemini for Google Cloud has limitations such as producing unexpected output in edge cases, potentially generating inaccurate information, and lacking factuality, which can include hallucinated information or links.\u003c/p\u003e\n"],["\u003cp\u003eThe quality of Gemini's output is influenced by the data quality and accuracy of user prompts, and there is a potential for the amplification of societal biases present in its training data.\u003c/p\u003e\n"],["\u003cp\u003eGemini's performance can vary across languages and dialects, as it primarily evaluates fairness in American English, potentially resulting in inconsistent service quality for underrepresented language varieties.\u003c/p\u003e\n"],["\u003cp\u003eDespite being trained on Google Cloud technology, Gemini may lack the specialized knowledge required to offer accurate details on highly technical topics, and it does not have awareness of the user's specific environment in the Google Cloud console.\u003c/p\u003e\n"]]],[],null,["# Gemini Code Assist and responsible AI\n\nThis document describes how Gemini Code Assist is designed in\nview of the capabilities, limitations, and risks that are associated with\ngenerative AI.\n\nCapabilities and risks of large language models\n-----------------------------------------------\n\nLarge language models (LLMs) can perform many useful tasks such as the\nfollowing:\n\n- Translate language.\n- Summarize text.\n- Generate code and creative writing.\n- Power chatbots and virtual assistants.\n- Complement search engines and recommendation systems.\n\nAt the same time, the evolving technical capabilities of LLMs create the\npotential for misapplication, misuse, and unintended or unforeseen consequences.\n\nLLMs can generate output that you don't expect, including text that's offensive,\ninsensitive, or factually incorrect. Because LLMs are incredibly versatile, it\ncan be difficult to predict exactly what kinds of unintended or unforeseen\noutputs they might produce.\n\nGiven these risks and complexities, Gemini Code Assist is\ndesigned with [Google's AI principles](https://ai.google/responsibility/principles/)\nin mind. However, it's important for users to understand some of the limitations\nof Gemini Code Assist to work safely and responsibly.\n\nGemini Code Assist limitations\n------------------------------\n\nSome of the limitations that you might encounter using\nGemini Code Assist include (but aren't limited to) the following:\n\n- **Edge cases.** Edge cases refer to unusual, rare, or exceptional situations\n that aren't well represented in the training data. These cases can lead to\n limitations in the output of Gemini Code Assist models, such as\n model overconfidence, misinterpretation of context, or inappropriate outputs.\n\n- **Model hallucinations, grounding, and factuality.**\n Gemini Code Assist models might lack grounding and factuality\n in real-world knowledge, physical properties, or accurate understanding. This\n limitation can lead to model hallucinations, where\n Gemini Code Assist might generate outputs that are\n plausible-sounding but factually incorrect, irrelevant, inappropriate, or\n nonsensical. Hallucinations can also include fabricating links to web pages\n that don't exist and have never existed. For more information, see\n [Write better prompts for Gemini for Google Cloud](https://cloud.google.com/gemini/docs/discover/write-prompts).\n\n- **Data quality and tuning.** The quality, accuracy, and bias of the prompt\n data that's entered into Gemini Code Assist products can have a\n significant impact on its performance. If users enter inaccurate or incorrect\n prompts, Gemini Code Assist might return suboptimal or false\n responses.\n\n- **Bias amplification.** Language models can inadvertently amplify existing\n biases in their training data, leading to outputs that might further reinforce\n societal prejudices and unequal treatment of certain groups.\n\n- **Language quality.** While Gemini Code Assist yields\n impressive multilingual capabilities on the benchmarks that we evaluated\n against, the majority of our benchmarks (including all of the fairness\n evaluations) are in American English.\n\n Language models might provide inconsistent service quality to different users.\n For example, text generation might not be as effective for some dialects or\n language varieties because they are underrepresented in the training data.\n Performance might be worse for non-English languages or English language\n varieties with less representation.\n- **Fairness benchmarks and subgroups.** Google Research's fairness analyses of\n Gemini models don't provide an exhaustive account of the various\n potential risks. For example, we focus on biases along gender, race,\n ethnicity, and religion axes, but perform the analysis only on the American\n English language data and model outputs.\n\n- **Limited domain expertise.** Gemini models have been trained on\n Google Cloud technology, but it might lack the depth of knowledge that's\n required to provide accurate and detailed responses on highly specialized or\n technical topics, leading to superficial or incorrect information.\n\nGemini safety and toxicity filtering\n------------------------------------\n\nGemini Code Assist prompts and responses are checked against a\ncomprehensive list of safety attributes as applicable for each use case. These\nsafety attributes aim to filter out content that violates our\n[Acceptable Use Policy](https://cloud.google.com/terms/aup). If an output is\nconsidered harmful, the response will be blocked.\n\nWhat's next\n-----------\n\n- Learn more about [how Gemini Code Assist cites sources when helps you generate code](/gemini-code-assist/docs/works#how-when-gemini-cites-sources)."]]