Gemini Code Assist et IA responsable
Restez organisé à l'aide des collections
Enregistrez et classez les contenus selon vos préférences.
Ce document décrit la conception de Gemini Code Assist en fonction des capacités, des limites et des risques associés à l'IA générative.
Capacités et risques des grands modèles de langage
Les grands modèles de langage (LLM) peuvent effectuer de nombreuses tâches utiles, par exemple:
- Traduire la langue.
- Résumer du texte
- Générer du code et écrire de manière créative
- Alimentez les chatbots et les assistants virtuels.
- Compléter les moteurs de recherche et les systèmes de recommandation
Parallèlement, les capacités techniques en constante évolution des LLM peuvent être sujettes à une mauvaise application, une utilisation abusive et des conséquences inattendues ou imprévues.
Les LLM peuvent générer des résultats inattendus, y compris du texte offensant, insensible ou incorrect. Étant donné que les LLM sont incroyablement polyvalents, il peut être difficile de prédire exactement les types de résultats involontaires ou imprévus qu'ils pourraient produire.
Compte tenu de ces risques et de ces complexités, Gemini Code Assist est conçu en tenant compte des principes de l'IA de Google. Toutefois, il est important que les utilisateurs comprennent certaines des limites de Gemini Code Assist pour travailler en toute sécurité et de manière responsable.
Limites de Gemini Code Assist
Voici quelques-unes des limitations que vous pouvez rencontrer lors de l'utilisation de Gemini Code Assist:
Cas particuliers Les cas particuliers font référence à des situations inhabituelles, rares ou exceptionnelles qui ne sont pas bien représentées dans les données d'entraînement. Ces cas peuvent entraîner des limites dans la sortie des modèles Gemini Code Assist, telles que la confiance excessive du modèle, une mauvaise interprétation du contexte ou des sorties inappropriées.
Modéliser les hallucinations, l'ancrage et la factualité
Les modèles Gemini Code Assist peuvent manquer de base et de factualité dans les connaissances réelles, les propriétés physiques ou la compréhension précise. Cette limitation peut conduire à des blocages du modèle, c'est-à-dire des instances dans lesquelles Gemini Code Assist peut générer des résultats qui semblent plausibles, mais qui sont en fait incorrects, non pertinents, inappropriés ou absurdes. Les hallucinations peuvent également inclure la création de liens vers des pages Web qui n'existent pas et n'ont jamais existé. Pour en savoir plus, consultez la section Rédiger de meilleures requêtes pour Gemini pour Google Cloud.
Qualité et réglage des données La qualité, la précision et le biais des données de requête saisies dans les produits Gemini Code Assist peuvent avoir un impact significatif sur leurs performances. Si les utilisateurs saisissent des requêtes inexactes ou incorrectes, Gemini Code Assist peut renvoyer des réponses non optimales ou fausses.
Amplification des biais Les modèles de langage peuvent amplifier par inadvertance les biais existants dans leurs données d'entraînement, ce qui peut se traduire par un renforcement supplémentaire des préjugés sociétaux et du traitement inégal de certains groupes.
Qualité de la langue Bien que Gemini Code Assist fournisse des fonctionnalités multilingues impressionnantes aux benchmarks que nous avons évalués, la majorité des benchmarks (y compris toutes les évaluations d'équité) sont en anglais américain.
Les modèles de langage peuvent fournir une qualité de service incohérente à différents utilisateurs.
Par exemple, la génération de texte peut ne pas être aussi efficace pour certains dialectes ou variantes de langues, car ils sont sous-représentés dans les données d'entraînement.
Les performances peuvent être inférieures pour les langues autres que l'anglais ou pour les langues anglaises moins représentées.
Benchmarks et sous-groupes d'équité Les analyses d'équité des modèles Gemini de Google Research ne fournissent pas un compte exhaustif des différents risques potentiels. Par exemple, nous nous concentrons sur les biais en fonction du genre, de l'origine ethnique, de la philosophie et de la culture, mais nous n'effectuons l'analyse que sur les données en anglais américain et les résultats du modèle.
Expertise limitée dans le domaine. Les modèles Gemini ont été entraînés sur la technologie Google Cloud, mais ils peuvent ne pas posséder les connaissances nécessaires pour fournir des réponses précises et détaillées sur des sujets hautement spécialisés ou techniques, ce qui entraîne des informations superficielles ou incorrectes.
Filtrage de sécurité et de toxicité Gemini
Les requêtes et les réponses de Gemini Code Assist sont comparées à une liste complète d'attributs de sécurité, le cas échéant, pour chaque cas d'utilisation. Ces attributs de sécurité visent à filtrer les contenus qui ne respectent pas notre Politique d'utilisation autorisée. Si une sortie est considérée comme dangereuse, la réponse est bloquée.
Étape suivante
Sauf indication contraire, le contenu de cette page est régi par une licence Creative Commons Attribution 4.0, et les échantillons de code sont régis par une licence Apache 2.0. Pour en savoir plus, consultez les Règles du site Google Developers. Java est une marque déposée d'Oracle et/ou de ses sociétés affiliées.
Dernière mise à jour le 2025/08/31 (UTC).
[null,null,["Dernière mise à jour le 2025/08/31 (UTC)."],[[["\u003cp\u003eGemini, a large language model (LLM), is designed with Google's AI principles to offer capabilities like language translation, text summarization, and code generation, while acknowledging the risks of misapplication and unintended outputs.\u003c/p\u003e\n"],["\u003cp\u003eGemini for Google Cloud has limitations such as producing unexpected output in edge cases, potentially generating inaccurate information, and lacking factuality, which can include hallucinated information or links.\u003c/p\u003e\n"],["\u003cp\u003eThe quality of Gemini's output is influenced by the data quality and accuracy of user prompts, and there is a potential for the amplification of societal biases present in its training data.\u003c/p\u003e\n"],["\u003cp\u003eGemini's performance can vary across languages and dialects, as it primarily evaluates fairness in American English, potentially resulting in inconsistent service quality for underrepresented language varieties.\u003c/p\u003e\n"],["\u003cp\u003eDespite being trained on Google Cloud technology, Gemini may lack the specialized knowledge required to offer accurate details on highly technical topics, and it does not have awareness of the user's specific environment in the Google Cloud console.\u003c/p\u003e\n"]]],[],null,["# Gemini Code Assist and responsible AI\n\nThis document describes how Gemini Code Assist is designed in\nview of the capabilities, limitations, and risks that are associated with\ngenerative AI.\n\nCapabilities and risks of large language models\n-----------------------------------------------\n\nLarge language models (LLMs) can perform many useful tasks such as the\nfollowing:\n\n- Translate language.\n- Summarize text.\n- Generate code and creative writing.\n- Power chatbots and virtual assistants.\n- Complement search engines and recommendation systems.\n\nAt the same time, the evolving technical capabilities of LLMs create the\npotential for misapplication, misuse, and unintended or unforeseen consequences.\n\nLLMs can generate output that you don't expect, including text that's offensive,\ninsensitive, or factually incorrect. Because LLMs are incredibly versatile, it\ncan be difficult to predict exactly what kinds of unintended or unforeseen\noutputs they might produce.\n\nGiven these risks and complexities, Gemini Code Assist is\ndesigned with [Google's AI principles](https://ai.google/responsibility/principles/)\nin mind. However, it's important for users to understand some of the limitations\nof Gemini Code Assist to work safely and responsibly.\n\nGemini Code Assist limitations\n------------------------------\n\nSome of the limitations that you might encounter using\nGemini Code Assist include (but aren't limited to) the following:\n\n- **Edge cases.** Edge cases refer to unusual, rare, or exceptional situations\n that aren't well represented in the training data. These cases can lead to\n limitations in the output of Gemini Code Assist models, such as\n model overconfidence, misinterpretation of context, or inappropriate outputs.\n\n- **Model hallucinations, grounding, and factuality.**\n Gemini Code Assist models might lack grounding and factuality\n in real-world knowledge, physical properties, or accurate understanding. This\n limitation can lead to model hallucinations, where\n Gemini Code Assist might generate outputs that are\n plausible-sounding but factually incorrect, irrelevant, inappropriate, or\n nonsensical. Hallucinations can also include fabricating links to web pages\n that don't exist and have never existed. For more information, see\n [Write better prompts for Gemini for Google Cloud](https://cloud.google.com/gemini/docs/discover/write-prompts).\n\n- **Data quality and tuning.** The quality, accuracy, and bias of the prompt\n data that's entered into Gemini Code Assist products can have a\n significant impact on its performance. If users enter inaccurate or incorrect\n prompts, Gemini Code Assist might return suboptimal or false\n responses.\n\n- **Bias amplification.** Language models can inadvertently amplify existing\n biases in their training data, leading to outputs that might further reinforce\n societal prejudices and unequal treatment of certain groups.\n\n- **Language quality.** While Gemini Code Assist yields\n impressive multilingual capabilities on the benchmarks that we evaluated\n against, the majority of our benchmarks (including all of the fairness\n evaluations) are in American English.\n\n Language models might provide inconsistent service quality to different users.\n For example, text generation might not be as effective for some dialects or\n language varieties because they are underrepresented in the training data.\n Performance might be worse for non-English languages or English language\n varieties with less representation.\n- **Fairness benchmarks and subgroups.** Google Research's fairness analyses of\n Gemini models don't provide an exhaustive account of the various\n potential risks. For example, we focus on biases along gender, race,\n ethnicity, and religion axes, but perform the analysis only on the American\n English language data and model outputs.\n\n- **Limited domain expertise.** Gemini models have been trained on\n Google Cloud technology, but it might lack the depth of knowledge that's\n required to provide accurate and detailed responses on highly specialized or\n technical topics, leading to superficial or incorrect information.\n\nGemini safety and toxicity filtering\n------------------------------------\n\nGemini Code Assist prompts and responses are checked against a\ncomprehensive list of safety attributes as applicable for each use case. These\nsafety attributes aim to filter out content that violates our\n[Acceptable Use Policy](https://cloud.google.com/terms/aup). If an output is\nconsidered harmful, the response will be blocked.\n\nWhat's next\n-----------\n\n- Learn more about [how Gemini Code Assist cites sources when helps you generate code](/gemini-code-assist/docs/works#how-when-gemini-cites-sources)."]]