Gemini Code Assist e AI responsabile
Mantieni tutto organizzato con le raccolte
Salva e classifica i contenuti in base alle tue preferenze.
Questo documento descrive come è progettato Gemini Code Assist in funzione delle funzionalità, dei limiti e dei rischi associati all'AI generativa.
Funzionalità e rischi dei modelli linguistici di grandi dimensioni
I modelli linguistici di grandi dimensioni (LLM) possono svolgere molte attività utili, ad esempio:
- Lingua di traduzione.
- Riassumere il testo.
- Genera codice e scrittura creativa.
- Migliora chatbot e assistenti virtuali.
- Integrare i motori di ricerca e i sistemi di suggerimenti.
Allo stesso tempo, le capacità tecniche in evoluzione degli LLM creano il potenziale per applicazioni errate, usi impropri e conseguenze non volute o impreviste.
Gli LLM possono generare output inaspettati, inclusi testi offensivi, insensibili o errati. Poiché gli LLM sono incredibilmente versatili, può essere difficile prevedere esattamente quali tipi di output indesiderati o imprevisti potrebbero produrre.
Dati questi rischi e queste complessità, Gemini Code Assist è stato progettato in base ai principi dell'IA di Google. Tuttavia, è importante che gli utenti comprendano alcune delle limitazioni di Gemini Code Assist per lavorare in modo sicuro e responsabile.
Limitazioni di Gemini Code Assist
Ecco alcuni dei limiti che potresti riscontrare utilizzando Gemini Code Assist:
Casi limite. I casi limite si riferiscono a situazioni insolite, rare o eccezionali
che non sono ben rappresentate nei dati di addestramento. Questi casi possono portare a limitazioni nell'output dei modelli di Gemini Code Assist, ad esempio eccessiva sicurezza del modello, interpretazione errata del contesto o output inappropriati.
Modella allucinazioni, grounding e realtà.
I modelli di Gemini Code Assist potrebbero non essere basati su dati oggettivi e non essere accurati
in termini di conoscenza del mondo reale, proprietà fisiche o comprensione accurata. Questa limitazione può portare ad "allucinazioni" del modello, in cui Gemini Code Assist potrebbe generare output apparentemente plausibili, ma oggettivamente errati, irrilevanti, inappropriati o privi di senso. Le allucinazioni possono anche includere la creazione di link a pagine web
che non esistono e non sono mai esistite. Per ulteriori informazioni, consulta
Scrivere prompt migliori per Gemini per Google Cloud.
Qualità e ottimizzazione dei dati. La qualità, la precisione e il pregiudizio dei dati dei prompt inseriti nei prodotti Gemini Code Assist possono avere un impatto significativo sul loro rendimento. Se gli utenti inseriscono prompt imprecisi o errati, Gemini Code Assist potrebbe restituire risposte suboptimal o false.
Amplificazione del bias. I modelli linguistici possono amplificare inavvertitamente i bias esistenti nei dati di addestramento, generando output che potrebbero rafforzare ulteriormente i pregiudizi sociali e il trattamento ineguale di determinati gruppi.
Qualità della lingua. Sebbene Gemini Code Assist offra funzionalità multilingue impressionanti sui benchmark che abbiamo valutato, la maggior parte dei nostri benchmark (incluse tutte le valutazioni dell'equità) è in inglese americano.
I modelli linguistici potrebbero fornire una qualità del servizio incoerente a utenti diversi.
Ad esempio, la generazione di testo potrebbe non essere altrettanto efficace per alcuni dialetti o varianti linguistiche perché sono sottorappresentati nei dati di addestramento.
Il rendimento potrebbe essere peggiore per le lingue diverse dall'inglese o per le varianti della lingua inglese con una minore rappresentazione.
Benchmark e sottogruppi di equità. Le analisi di equità dei modelli Gemini di Google Research non forniscono un resoconto esaustivo dei vari potenziali rischi. Ad esempio, ci concentriamo sui bias lungo gli assi di genere, etnia, gruppo etnico e religione, ma eseguiamo l'analisi solo sui dati e sulle uscite del modello in lingua inglese americano.
Esperienza limitata nel dominio. I modelli Gemini sono stati addestrati sulla tecnologia Google Cloud, ma potrebbero non avere la profondità di conoscenza necessaria per fornire risposte accurate e dettagliate su argomenti altamente specializzati o tecnici, il che può portare a informazioni superficiali o errate.
Filtri di sicurezza e tossicità di Gemini
I prompt e le risposte di Gemini Code Assist vengono controllati in base a un elenco completo di attributi di sicurezza, a seconda del caso d'uso. Lo scopo di questi attributi di sicurezza è filtrare i contenuti che violano le nostre Norme di utilizzo accettabile. Se un output è considerato dannoso, la risposta verrà bloccata.
Passaggi successivi
Salvo quando diversamente specificato, i contenuti di questa pagina sono concessi in base alla licenza Creative Commons Attribution 4.0, mentre gli esempi di codice sono concessi in base alla licenza Apache 2.0. Per ulteriori dettagli, consulta le norme del sito di Google Developers. Java è un marchio registrato di Oracle e/o delle sue consociate.
Ultimo aggiornamento 2025-08-31 UTC.
[null,null,["Ultimo aggiornamento 2025-08-31 UTC."],[[["\u003cp\u003eGemini, a large language model (LLM), is designed with Google's AI principles to offer capabilities like language translation, text summarization, and code generation, while acknowledging the risks of misapplication and unintended outputs.\u003c/p\u003e\n"],["\u003cp\u003eGemini for Google Cloud has limitations such as producing unexpected output in edge cases, potentially generating inaccurate information, and lacking factuality, which can include hallucinated information or links.\u003c/p\u003e\n"],["\u003cp\u003eThe quality of Gemini's output is influenced by the data quality and accuracy of user prompts, and there is a potential for the amplification of societal biases present in its training data.\u003c/p\u003e\n"],["\u003cp\u003eGemini's performance can vary across languages and dialects, as it primarily evaluates fairness in American English, potentially resulting in inconsistent service quality for underrepresented language varieties.\u003c/p\u003e\n"],["\u003cp\u003eDespite being trained on Google Cloud technology, Gemini may lack the specialized knowledge required to offer accurate details on highly technical topics, and it does not have awareness of the user's specific environment in the Google Cloud console.\u003c/p\u003e\n"]]],[],null,["# Gemini Code Assist and responsible AI\n\nThis document describes how Gemini Code Assist is designed in\nview of the capabilities, limitations, and risks that are associated with\ngenerative AI.\n\nCapabilities and risks of large language models\n-----------------------------------------------\n\nLarge language models (LLMs) can perform many useful tasks such as the\nfollowing:\n\n- Translate language.\n- Summarize text.\n- Generate code and creative writing.\n- Power chatbots and virtual assistants.\n- Complement search engines and recommendation systems.\n\nAt the same time, the evolving technical capabilities of LLMs create the\npotential for misapplication, misuse, and unintended or unforeseen consequences.\n\nLLMs can generate output that you don't expect, including text that's offensive,\ninsensitive, or factually incorrect. Because LLMs are incredibly versatile, it\ncan be difficult to predict exactly what kinds of unintended or unforeseen\noutputs they might produce.\n\nGiven these risks and complexities, Gemini Code Assist is\ndesigned with [Google's AI principles](https://ai.google/responsibility/principles/)\nin mind. However, it's important for users to understand some of the limitations\nof Gemini Code Assist to work safely and responsibly.\n\nGemini Code Assist limitations\n------------------------------\n\nSome of the limitations that you might encounter using\nGemini Code Assist include (but aren't limited to) the following:\n\n- **Edge cases.** Edge cases refer to unusual, rare, or exceptional situations\n that aren't well represented in the training data. These cases can lead to\n limitations in the output of Gemini Code Assist models, such as\n model overconfidence, misinterpretation of context, or inappropriate outputs.\n\n- **Model hallucinations, grounding, and factuality.**\n Gemini Code Assist models might lack grounding and factuality\n in real-world knowledge, physical properties, or accurate understanding. This\n limitation can lead to model hallucinations, where\n Gemini Code Assist might generate outputs that are\n plausible-sounding but factually incorrect, irrelevant, inappropriate, or\n nonsensical. Hallucinations can also include fabricating links to web pages\n that don't exist and have never existed. For more information, see\n [Write better prompts for Gemini for Google Cloud](https://cloud.google.com/gemini/docs/discover/write-prompts).\n\n- **Data quality and tuning.** The quality, accuracy, and bias of the prompt\n data that's entered into Gemini Code Assist products can have a\n significant impact on its performance. If users enter inaccurate or incorrect\n prompts, Gemini Code Assist might return suboptimal or false\n responses.\n\n- **Bias amplification.** Language models can inadvertently amplify existing\n biases in their training data, leading to outputs that might further reinforce\n societal prejudices and unequal treatment of certain groups.\n\n- **Language quality.** While Gemini Code Assist yields\n impressive multilingual capabilities on the benchmarks that we evaluated\n against, the majority of our benchmarks (including all of the fairness\n evaluations) are in American English.\n\n Language models might provide inconsistent service quality to different users.\n For example, text generation might not be as effective for some dialects or\n language varieties because they are underrepresented in the training data.\n Performance might be worse for non-English languages or English language\n varieties with less representation.\n- **Fairness benchmarks and subgroups.** Google Research's fairness analyses of\n Gemini models don't provide an exhaustive account of the various\n potential risks. For example, we focus on biases along gender, race,\n ethnicity, and religion axes, but perform the analysis only on the American\n English language data and model outputs.\n\n- **Limited domain expertise.** Gemini models have been trained on\n Google Cloud technology, but it might lack the depth of knowledge that's\n required to provide accurate and detailed responses on highly specialized or\n technical topics, leading to superficial or incorrect information.\n\nGemini safety and toxicity filtering\n------------------------------------\n\nGemini Code Assist prompts and responses are checked against a\ncomprehensive list of safety attributes as applicable for each use case. These\nsafety attributes aim to filter out content that violates our\n[Acceptable Use Policy](https://cloud.google.com/terms/aup). If an output is\nconsidered harmful, the response will be blocked.\n\nWhat's next\n-----------\n\n- Learn more about [how Gemini Code Assist cites sources when helps you generate code](/gemini-code-assist/docs/works#how-when-gemini-cites-sources)."]]