Gemini Code Assist e IA responsável
Mantenha tudo organizado com as coleções
Salve e categorize o conteúdo com base nas suas preferências.
Este documento descreve como o Gemini Code Assist foi projetado em
vista dos recursos, limitações e riscos associados à
IA generativa.
Recursos e riscos dos modelos de linguagem grandes
Os modelos de linguagem grandes (LLMs) podem realizar muitas tarefas úteis, como
estas:
- Traduzir idioma.
- Resumir texto.
- Gerar código e escrever criativamente.
- Alimentar chatbots e assistentes virtuais.
- Complemente mecanismos de pesquisa e sistemas de recomendação.
Ao mesmo tempo, os recursos técnicos em evolução dos LLMs criam o
potencial para uso indevido e consequências imprevistas ou indesejadas.
Os LLMs podem gerar resultados inesperados, incluindo texto ofensivo,
insensível ou incorreto. Como os LLMs são incrivelmente versáteis, pode ser difícil prever exatamente quais tipos de saídas não intencionais ou
imprevistas eles podem produzir.
Considerando esses riscos e complexidades, o Gemini Code Assist foi
projetado com base nos princípios de IA do Google. No entanto, é importante que os usuários entendam algumas das limitações
do Gemini Code Assist para trabalhar com segurança e responsabilidade.
Limitações do Gemini Code Assist
Algumas das limitações que você pode encontrar ao usar
o Gemini Code Assist incluem (mas não se limitam a) as seguintes:
Casos extremos. Casos extremos se referem a situações incomuns, raras ou excepcionais
que não estão bem representadas nos dados de treinamento. Esses casos podem levar a
limitações na saída dos modelos de assistência de código do Gemini, como
excesso de confiança no modelo, interpretação incorreta do contexto ou saídas inadequadas.
Alucinações, embasamento e veracidade do modelo.
Os modelos do Gemini Code Assist podem não ter base em fatos reais, conhecimentos do mundo real, propriedades físicas ou compreensão precisa. Essa
limitação pode levar a alucinações de modelos, em que
o Gemini Code Assist pode gerar saídas que soam
plausíveis, mas são factualmente incorretas, irrelevantes, inadequadas ou
sem sentido. As alucinações também podem incluir a fabricação de links para páginas da Web
que não existem e nunca existiram. Para mais informações, consulte
Escrever comandos melhores no Gemini para o Google Cloud.
Qualidade e ajuste dos dados. A qualidade, a precisão e o viés dos dados do comando
inseridos nos produtos do Gemini Code Assist podem ter um
impacto significativo no desempenho. Se os usuários inserirem comandos imprecisos ou
incorretos, o Gemini Code Assist poderá retornar respostas
subótimas ou falsas.
Ampliação de viés. Os modelos de linguagem podem amplificar inadvertidamente os vieses nos dados de treinamento, levando a saídas que podem reforçar ainda mais os preconceitos sociais e o tratamento desigual de determinados grupos.
Qualidade do idioma. Embora o Gemini Code Assist produza
recursos multilíngues impressionantes nos comparativos de mercado que avaliamos, a maioria dos nossos comparativos (incluindo todas as avaliações de
imparcialidade) está em inglês americano.
Os modelos de linguagem podem oferecer qualidade de serviço inconsistente para diferentes usuários.
Por exemplo, a geração de texto pode não ser tão eficaz para alguns dialetos ou
variedades de idiomas porque eles estão sub-representados nos dados de treinamento.
O desempenho pode ser pior para idiomas diferentes do inglês ou
variedades de língua inglesa com menos representação.
Benchmarks e subgrupos de imparcialidade. As análises de imparcialidade do Google Research dos modelos Gemini não fornecem uma visão completa dos vários riscos potenciais. Por exemplo, nos concentramos em vieses nos eixos de gênero, raça, etnia e religião, mas realizamos a análise apenas nos dados em inglês americano e nos resultados do modelo.
Especialização limitada no domínio. Os modelos do Gemini foram treinados na
tecnologia do Google Cloud, mas podem não ter a profundidade de conhecimento necessária para fornecer respostas precisas e detalhadas sobre tópicos altamente especializados ou
técnicos, o que resulta em informações superficiais ou incorretas.
Filtragem de segurança e toxicidade do Gemini
As solicitações e respostas do Gemini Code Assist são verificadas em uma
lista abrangente de atributos de segurança, conforme aplicável a cada caso de uso. O objetivo desses
atributos de segurança é filtrar conteúdo que viola nossa
Política de uso aceitável. Se uma saída for
considerada prejudicial, a resposta será bloqueada.
A seguir
Exceto em caso de indicação contrária, o conteúdo desta página é licenciado de acordo com a Licença de atribuição 4.0 do Creative Commons, e as amostras de código são licenciadas de acordo com a Licença Apache 2.0. Para mais detalhes, consulte as políticas do site do Google Developers. Java é uma marca registrada da Oracle e/ou afiliadas.
Última atualização 2025-08-31 UTC.
[null,null,["Última atualização 2025-08-31 UTC."],[[["\u003cp\u003eGemini, a large language model (LLM), is designed with Google's AI principles to offer capabilities like language translation, text summarization, and code generation, while acknowledging the risks of misapplication and unintended outputs.\u003c/p\u003e\n"],["\u003cp\u003eGemini for Google Cloud has limitations such as producing unexpected output in edge cases, potentially generating inaccurate information, and lacking factuality, which can include hallucinated information or links.\u003c/p\u003e\n"],["\u003cp\u003eThe quality of Gemini's output is influenced by the data quality and accuracy of user prompts, and there is a potential for the amplification of societal biases present in its training data.\u003c/p\u003e\n"],["\u003cp\u003eGemini's performance can vary across languages and dialects, as it primarily evaluates fairness in American English, potentially resulting in inconsistent service quality for underrepresented language varieties.\u003c/p\u003e\n"],["\u003cp\u003eDespite being trained on Google Cloud technology, Gemini may lack the specialized knowledge required to offer accurate details on highly technical topics, and it does not have awareness of the user's specific environment in the Google Cloud console.\u003c/p\u003e\n"]]],[],null,["# Gemini Code Assist and responsible AI\n\nThis document describes how Gemini Code Assist is designed in\nview of the capabilities, limitations, and risks that are associated with\ngenerative AI.\n\nCapabilities and risks of large language models\n-----------------------------------------------\n\nLarge language models (LLMs) can perform many useful tasks such as the\nfollowing:\n\n- Translate language.\n- Summarize text.\n- Generate code and creative writing.\n- Power chatbots and virtual assistants.\n- Complement search engines and recommendation systems.\n\nAt the same time, the evolving technical capabilities of LLMs create the\npotential for misapplication, misuse, and unintended or unforeseen consequences.\n\nLLMs can generate output that you don't expect, including text that's offensive,\ninsensitive, or factually incorrect. Because LLMs are incredibly versatile, it\ncan be difficult to predict exactly what kinds of unintended or unforeseen\noutputs they might produce.\n\nGiven these risks and complexities, Gemini Code Assist is\ndesigned with [Google's AI principles](https://ai.google/responsibility/principles/)\nin mind. However, it's important for users to understand some of the limitations\nof Gemini Code Assist to work safely and responsibly.\n\nGemini Code Assist limitations\n------------------------------\n\nSome of the limitations that you might encounter using\nGemini Code Assist include (but aren't limited to) the following:\n\n- **Edge cases.** Edge cases refer to unusual, rare, or exceptional situations\n that aren't well represented in the training data. These cases can lead to\n limitations in the output of Gemini Code Assist models, such as\n model overconfidence, misinterpretation of context, or inappropriate outputs.\n\n- **Model hallucinations, grounding, and factuality.**\n Gemini Code Assist models might lack grounding and factuality\n in real-world knowledge, physical properties, or accurate understanding. This\n limitation can lead to model hallucinations, where\n Gemini Code Assist might generate outputs that are\n plausible-sounding but factually incorrect, irrelevant, inappropriate, or\n nonsensical. Hallucinations can also include fabricating links to web pages\n that don't exist and have never existed. For more information, see\n [Write better prompts for Gemini for Google Cloud](https://cloud.google.com/gemini/docs/discover/write-prompts).\n\n- **Data quality and tuning.** The quality, accuracy, and bias of the prompt\n data that's entered into Gemini Code Assist products can have a\n significant impact on its performance. If users enter inaccurate or incorrect\n prompts, Gemini Code Assist might return suboptimal or false\n responses.\n\n- **Bias amplification.** Language models can inadvertently amplify existing\n biases in their training data, leading to outputs that might further reinforce\n societal prejudices and unequal treatment of certain groups.\n\n- **Language quality.** While Gemini Code Assist yields\n impressive multilingual capabilities on the benchmarks that we evaluated\n against, the majority of our benchmarks (including all of the fairness\n evaluations) are in American English.\n\n Language models might provide inconsistent service quality to different users.\n For example, text generation might not be as effective for some dialects or\n language varieties because they are underrepresented in the training data.\n Performance might be worse for non-English languages or English language\n varieties with less representation.\n- **Fairness benchmarks and subgroups.** Google Research's fairness analyses of\n Gemini models don't provide an exhaustive account of the various\n potential risks. For example, we focus on biases along gender, race,\n ethnicity, and religion axes, but perform the analysis only on the American\n English language data and model outputs.\n\n- **Limited domain expertise.** Gemini models have been trained on\n Google Cloud technology, but it might lack the depth of knowledge that's\n required to provide accurate and detailed responses on highly specialized or\n technical topics, leading to superficial or incorrect information.\n\nGemini safety and toxicity filtering\n------------------------------------\n\nGemini Code Assist prompts and responses are checked against a\ncomprehensive list of safety attributes as applicable for each use case. These\nsafety attributes aim to filter out content that violates our\n[Acceptable Use Policy](https://cloud.google.com/terms/aup). If an output is\nconsidered harmful, the response will be blocked.\n\nWhat's next\n-----------\n\n- Learn more about [how Gemini Code Assist cites sources when helps you generate code](/gemini-code-assist/docs/works#how-when-gemini-cites-sources)."]]