Gemini Code Assist und verantwortungsbewusste KI
Mit Sammlungen den Überblick behalten
Sie können Inhalte basierend auf Ihren Einstellungen speichern und kategorisieren.
In diesem Dokument wird beschrieben, wie Gemini Code Assist unter Berücksichtigung der Funktionen, Einschränkungen und Risiken entwickelt wurde, die mit generativer KI verbunden sind.
Funktionen und Risiken von Large Language Models
Large Language Models (LLMs) können viele nützliche Aufgaben ausführen, z. B.:
- Sprache übersetzen
- Text zusammenfassen
- Code und kreatives Schreiben generieren.
- Chatbots und virtuelle Assistenten unterstützen
- Suchmaschinen und Empfehlungssysteme ergänzen
Gleichzeitig besteht durch die sich entwickelnden technischen Fähigkeiten von LLMs das Risiko, dass sie falsch eingesetzt oder missbraucht werden und unbeabsichtigte oder unvorhergesehene Folgen haben.
LLMs können unerwartete Ausgaben generieren, einschließlich Text, der beleidigend, grob oder tatsächlich falsch ist. Da LLMs unglaublich vielseitig sind, kann es schwierig sein, genau vorherzusagen, welche Art unbeabsichtigter oder unvorhergesehener Ausgaben sie erzeugen könnten.
Angesichts dieser Risiken und Komplexität wurde Gemini Code Assist unter Berücksichtigung der KI-Grundsätze von Google entwickelt. Es ist jedoch wichtig, dass Nutzer einige der Einschränkungen von Gemini Code Assist kennen, um sicher und verantwortungsvoll damit zu arbeiten.
Einschränkungen von Gemini Code Assist
Zu den Einschränkungen, die bei der Verwendung von Gemini Code Assist auftreten können, gehören unter anderem:
Grenzfälle Grenzfälle beziehen sich auf ungewöhnliche, seltene oder außergewöhnliche Situationen, die in den Trainingsdaten nicht gut dargestellt werden. Diese Fälle können zu Einschränkungen bei der Ausgabe von Gemini Code Assist-Modellen führen, z. B. Modellselbstüberschätzung, Fehlinterpretation des Kontexts oder unangemessene Ausgaben.
Modellhalluzinationen, Fundierung und Fakten
Gemini Code Assist-Modellen mangelt es möglicherweise an Grundlagen und Fakten aus der realen Welt, physischen Eigenschaften oder korrektem Verständnis. Diese Einschränkung kann zu Modellhalluzinationen führen, bei denen Gemini Code Assist möglicherweise Ausgaben generiert, die zwar plausibel klingen, aber faktisch falsch, irrelevant, unangemessen oder sinnlos sind. Halluzinationen können auch das Erfinden von Links zu Webseiten umfassen, die nicht existieren und nie existiert haben. Weitere Informationen finden Sie unter Bessere Prompts für Gemini für Google Cloud schreiben.
Datenqualität und Optimierung Die Qualität, Genauigkeit und Verzerrung der Prompt-Daten, die in Gemini Code Assist-Produkte eingegeben werden, können erhebliche Auswirkungen auf die Leistung haben. Wenn Nutzer ungenaue oder falsche Prompts eingeben, gibt Gemini Code Assist möglicherweise suboptimale oder falsche Antworten zurück.
Voreingenommenheitsverstärkung Sprachmodelle können versehentlich vorhandene Vorurteile in den Trainingsdaten verstärken. Dies kann zu Ergebnissen führen, die gesellschaftliche Vorurteile und die ungleiche Behandlung bestimmter Gruppen weiter verstärken.
Sprachqualität: Gemini Code Assist bietet zwar beeindruckende mehrsprachige Funktionen in den von uns ausgewerteten Benchmarks, die meisten unserer Benchmarks (einschließlich aller Fairness-Auswertungen) sind jedoch in amerikanischem Englisch.
Die von Sprachmodellen gelieferte Dienstqualität ist möglicherweise nicht für alle Nutzer einheitlich.
Beispielsweise ist die Texterzeugung für einige Dialekte oder Sprachvarianten aufgrund ihres geringen Vorkommens in den Trainingsdaten möglicherweise nicht so effektiv.
Die Leistung ist bei anderen Sprachen als der Englischen und bei weniger stark repräsentierten englischen Sprachvarianten möglicherweise geringer.
Fairness-Benchmarks und Untergruppen Die Fairness-Analysen des Google Research-Teams für Gemini-Modelle bieten keine vollständige Darstellung der verschiedenen potenziellen Risiken. Beispielsweise konzentrieren wir uns auf Vorurteile im Hinblick auf Geschlecht, ethnische Herkunft, Ethnie und Religion. Die Analyse erfolgt jedoch nur für englischsprachige Daten und die Modellausgaben.
Begrenzte Fachkenntnisse: Gemini-Modelle wurden mit Google Cloud-Technologie trainiert, haben aber möglicherweise nicht das nötige Wissen, um präzise und detaillierte Antworten im Fall von hoch spezialisierten oder technischen Themen zu liefern. Dies kann zu oberflächlichen oder falschen Informationen führen.
Gemini-Sicherheits- und Toxizitätsfilter
Prompts und Antworten von Gemini Code Assist werden anhand einer umfassenden Liste von Sicherheitsattributen geprüft, die für jeden Anwendungsfall gelten. Mit diesen Sicherheitsattributen sollen Inhalte herausgefiltert werden, die gegen unsere Richtlinien zur Fairen Nutzung verstoßen. Wenn eine Ausgabe als schädlich eingestuft wird, wird die Antwort blockiert.
Nächste Schritte
Sofern nicht anders angegeben, sind die Inhalte dieser Seite unter der Creative Commons Attribution 4.0 License und Codebeispiele unter der Apache 2.0 License lizenziert. Weitere Informationen finden Sie in den Websiterichtlinien von Google Developers. Java ist eine eingetragene Marke von Oracle und/oder seinen Partnern.
Zuletzt aktualisiert: 2025-08-31 (UTC).
[null,null,["Zuletzt aktualisiert: 2025-08-31 (UTC)."],[[["\u003cp\u003eGemini, a large language model (LLM), is designed with Google's AI principles to offer capabilities like language translation, text summarization, and code generation, while acknowledging the risks of misapplication and unintended outputs.\u003c/p\u003e\n"],["\u003cp\u003eGemini for Google Cloud has limitations such as producing unexpected output in edge cases, potentially generating inaccurate information, and lacking factuality, which can include hallucinated information or links.\u003c/p\u003e\n"],["\u003cp\u003eThe quality of Gemini's output is influenced by the data quality and accuracy of user prompts, and there is a potential for the amplification of societal biases present in its training data.\u003c/p\u003e\n"],["\u003cp\u003eGemini's performance can vary across languages and dialects, as it primarily evaluates fairness in American English, potentially resulting in inconsistent service quality for underrepresented language varieties.\u003c/p\u003e\n"],["\u003cp\u003eDespite being trained on Google Cloud technology, Gemini may lack the specialized knowledge required to offer accurate details on highly technical topics, and it does not have awareness of the user's specific environment in the Google Cloud console.\u003c/p\u003e\n"]]],[],null,["# Gemini Code Assist and responsible AI\n\nThis document describes how Gemini Code Assist is designed in\nview of the capabilities, limitations, and risks that are associated with\ngenerative AI.\n\nCapabilities and risks of large language models\n-----------------------------------------------\n\nLarge language models (LLMs) can perform many useful tasks such as the\nfollowing:\n\n- Translate language.\n- Summarize text.\n- Generate code and creative writing.\n- Power chatbots and virtual assistants.\n- Complement search engines and recommendation systems.\n\nAt the same time, the evolving technical capabilities of LLMs create the\npotential for misapplication, misuse, and unintended or unforeseen consequences.\n\nLLMs can generate output that you don't expect, including text that's offensive,\ninsensitive, or factually incorrect. Because LLMs are incredibly versatile, it\ncan be difficult to predict exactly what kinds of unintended or unforeseen\noutputs they might produce.\n\nGiven these risks and complexities, Gemini Code Assist is\ndesigned with [Google's AI principles](https://ai.google/responsibility/principles/)\nin mind. However, it's important for users to understand some of the limitations\nof Gemini Code Assist to work safely and responsibly.\n\nGemini Code Assist limitations\n------------------------------\n\nSome of the limitations that you might encounter using\nGemini Code Assist include (but aren't limited to) the following:\n\n- **Edge cases.** Edge cases refer to unusual, rare, or exceptional situations\n that aren't well represented in the training data. These cases can lead to\n limitations in the output of Gemini Code Assist models, such as\n model overconfidence, misinterpretation of context, or inappropriate outputs.\n\n- **Model hallucinations, grounding, and factuality.**\n Gemini Code Assist models might lack grounding and factuality\n in real-world knowledge, physical properties, or accurate understanding. This\n limitation can lead to model hallucinations, where\n Gemini Code Assist might generate outputs that are\n plausible-sounding but factually incorrect, irrelevant, inappropriate, or\n nonsensical. Hallucinations can also include fabricating links to web pages\n that don't exist and have never existed. For more information, see\n [Write better prompts for Gemini for Google Cloud](https://cloud.google.com/gemini/docs/discover/write-prompts).\n\n- **Data quality and tuning.** The quality, accuracy, and bias of the prompt\n data that's entered into Gemini Code Assist products can have a\n significant impact on its performance. If users enter inaccurate or incorrect\n prompts, Gemini Code Assist might return suboptimal or false\n responses.\n\n- **Bias amplification.** Language models can inadvertently amplify existing\n biases in their training data, leading to outputs that might further reinforce\n societal prejudices and unequal treatment of certain groups.\n\n- **Language quality.** While Gemini Code Assist yields\n impressive multilingual capabilities on the benchmarks that we evaluated\n against, the majority of our benchmarks (including all of the fairness\n evaluations) are in American English.\n\n Language models might provide inconsistent service quality to different users.\n For example, text generation might not be as effective for some dialects or\n language varieties because they are underrepresented in the training data.\n Performance might be worse for non-English languages or English language\n varieties with less representation.\n- **Fairness benchmarks and subgroups.** Google Research's fairness analyses of\n Gemini models don't provide an exhaustive account of the various\n potential risks. For example, we focus on biases along gender, race,\n ethnicity, and religion axes, but perform the analysis only on the American\n English language data and model outputs.\n\n- **Limited domain expertise.** Gemini models have been trained on\n Google Cloud technology, but it might lack the depth of knowledge that's\n required to provide accurate and detailed responses on highly specialized or\n technical topics, leading to superficial or incorrect information.\n\nGemini safety and toxicity filtering\n------------------------------------\n\nGemini Code Assist prompts and responses are checked against a\ncomprehensive list of safety attributes as applicable for each use case. These\nsafety attributes aim to filter out content that violates our\n[Acceptable Use Policy](https://cloud.google.com/terms/aup). If an output is\nconsidered harmful, the response will be blocked.\n\nWhat's next\n-----------\n\n- Learn more about [how Gemini Code Assist cites sources when helps you generate code](/gemini-code-assist/docs/works#how-when-gemini-cites-sources)."]]