Gemini Code Assist y la IA responsable
Organiza tus páginas con colecciones
Guarda y categoriza el contenido según tus preferencias.
En este documento, se describe cómo se diseñó Gemini Code Assist en función de las capacidades, las limitaciones y los riesgos asociados con la IA generativa.
Capacidades y riesgos de los modelos de lenguaje grandes
Los modelos grandes de lenguaje (LLM) pueden realizar muchas tareas útiles, como las siguientes:
- Idioma de traducción.
- Resumir texto
- Generar código y escritura creativa
- Potenciar chatbots y asistentes virtuales
- Complementar los motores de búsqueda y los sistemas de recomendación
Al mismo tiempo, las capacidades técnicas en evolución de los LLM crean el potencial de aplicaciones incorrectas, usos inadecuados y consecuencias no deseadas o imprevistas.
Los LLM pueden generar resultados que no se esperan, incluido un texto que sea ofensivo, insensible o factualmente incorrecto. Debido a que los LLM son increíblemente versátiles, puede ser difícil predecir exactamente qué tipos de resultados no deseados o imprevistos podrían producir.
Debido a estos riesgos y complejidades, Gemini Code Assist se diseñó teniendo en cuenta los principios de la IA de Google. Sin embargo, es importante que los usuarios comprendan algunas de las limitaciones de Gemini Code Assist para trabajar de forma segura y responsable.
Limitaciones de Gemini Code Assist
Estas son algunas de las limitaciones que podrías encontrar cuando uses Gemini Code Assist:
Casos extremos. Los casos extremos se refieren a situaciones inusuales, excepcionales o excepcionales que no están bien representadas en los datos de entrenamiento. Estos casos pueden generar limitaciones en el resultado de los modelos de Gemini Code Assist, como un exceso de confianza del modelo, una interpretación errónea del contexto o resultados inapropiados.
Modela alucinaciones, fundamentación y facticidad.
Es posible que los modelos de Gemini Code Assist no tengan bases ni facticidad en el conocimiento del mundo real, las propiedades físicas o la comprensión precisa. Esta limitación puede generar alucinaciones del modelo, en las que Gemini Code Assist podría generar resultados que suenan posibles, pero que son incorrectos, irrelevantes, inapropiados o no tienen sentido. Las alucinaciones también pueden incluir la fabricación de vínculos a páginas web que no existen y nunca existieron. Para obtener más información, consulta Escribe mejores instrucciones para Gemini para Google Cloud.
Calidad y ajuste de los datos. La calidad, precisión y sesgo de los datos de la instrucción que se ingresa en los productos de Gemini Code Assist pueden tener un impacto significativo en su rendimiento. Si los usuarios ingresan instrucciones incorrectas o inexactas, Gemini Code Assist podría mostrar respuestas falsas o poco óptimas.
Amplificación del sesgo: Los modelos de lenguaje pueden amplificar de forma involuntaria el sesgo existente en los datos de entrenamiento, lo que genera resultados que pueden reforzar aún más los prejuicios sociales y el tratamiento desigual de ciertos grupos.
Calidad del idioma. Si bien Gemini Code Assist produce capacidades impresionantes de multilingües en las comparativas con las que evaluamos, la mayoría de nuestras comparativas (incluidas todas las evaluaciones de equidad) están en inglés americano.
Los modelos de lenguaje pueden proporcionar una calidad de servicio incoherente a diferentes usuarios.
Por ejemplo, es posible que la generación de texto no sea tan eficaz para algunos dialectos o variedades de idioma porque están subrepresentados en los datos de entrenamiento.
El rendimiento puede ser peor para los idiomas que no son inglés o los variedades de idioma inglés con menos representación.
Parámetros de referencia y subgrupos de equidad. Los análisis de equidad de Google Research de los modelos de Gemini no proporcionan una cuenta exhaustiva de los diversos riesgos potenciales. Por ejemplo, nos enfocamos en los sesgos de género, raza, etnia y religión, pero realizamos el análisis solo en los datos de inglés estadounidense y las salidas de modelos.
Experiencia limitada en el dominio. Los modelos de Gemini se entrenaron con la tecnología de Google Cloud, pero es posible que no tengan la profundidad de conocimiento necesaria para proporcionar respuestas precisas y detalladas sobre temas altamente especializados o técnicos, lo que genera información superficial o incorrecta.
Filtrado de seguridad y toxicidad de Gemini
Las instrucciones y respuestas de Gemini Code Assist se comparan con una lista exhaustiva de atributos de seguridad según corresponda para cada caso de uso. El objetivo de estos atributos de seguridad es filtrar el contenido que incumple nuestra Política de Uso Aceptable. Si un resultado se considera dañino, se bloqueará la respuesta.
¿Qué sigue?
Salvo que se indique lo contrario, el contenido de esta página está sujeto a la licencia Atribución 4.0 de Creative Commons, y los ejemplos de código están sujetos a la licencia Apache 2.0. Para obtener más información, consulta las políticas del sitio de Google Developers. Java es una marca registrada de Oracle o sus afiliados.
Última actualización: 2025-08-31 (UTC)
[null,null,["Última actualización: 2025-08-31 (UTC)"],[[["\u003cp\u003eGemini, a large language model (LLM), is designed with Google's AI principles to offer capabilities like language translation, text summarization, and code generation, while acknowledging the risks of misapplication and unintended outputs.\u003c/p\u003e\n"],["\u003cp\u003eGemini for Google Cloud has limitations such as producing unexpected output in edge cases, potentially generating inaccurate information, and lacking factuality, which can include hallucinated information or links.\u003c/p\u003e\n"],["\u003cp\u003eThe quality of Gemini's output is influenced by the data quality and accuracy of user prompts, and there is a potential for the amplification of societal biases present in its training data.\u003c/p\u003e\n"],["\u003cp\u003eGemini's performance can vary across languages and dialects, as it primarily evaluates fairness in American English, potentially resulting in inconsistent service quality for underrepresented language varieties.\u003c/p\u003e\n"],["\u003cp\u003eDespite being trained on Google Cloud technology, Gemini may lack the specialized knowledge required to offer accurate details on highly technical topics, and it does not have awareness of the user's specific environment in the Google Cloud console.\u003c/p\u003e\n"]]],[],null,["# Gemini Code Assist and responsible AI\n\nThis document describes how Gemini Code Assist is designed in\nview of the capabilities, limitations, and risks that are associated with\ngenerative AI.\n\nCapabilities and risks of large language models\n-----------------------------------------------\n\nLarge language models (LLMs) can perform many useful tasks such as the\nfollowing:\n\n- Translate language.\n- Summarize text.\n- Generate code and creative writing.\n- Power chatbots and virtual assistants.\n- Complement search engines and recommendation systems.\n\nAt the same time, the evolving technical capabilities of LLMs create the\npotential for misapplication, misuse, and unintended or unforeseen consequences.\n\nLLMs can generate output that you don't expect, including text that's offensive,\ninsensitive, or factually incorrect. Because LLMs are incredibly versatile, it\ncan be difficult to predict exactly what kinds of unintended or unforeseen\noutputs they might produce.\n\nGiven these risks and complexities, Gemini Code Assist is\ndesigned with [Google's AI principles](https://ai.google/responsibility/principles/)\nin mind. However, it's important for users to understand some of the limitations\nof Gemini Code Assist to work safely and responsibly.\n\nGemini Code Assist limitations\n------------------------------\n\nSome of the limitations that you might encounter using\nGemini Code Assist include (but aren't limited to) the following:\n\n- **Edge cases.** Edge cases refer to unusual, rare, or exceptional situations\n that aren't well represented in the training data. These cases can lead to\n limitations in the output of Gemini Code Assist models, such as\n model overconfidence, misinterpretation of context, or inappropriate outputs.\n\n- **Model hallucinations, grounding, and factuality.**\n Gemini Code Assist models might lack grounding and factuality\n in real-world knowledge, physical properties, or accurate understanding. This\n limitation can lead to model hallucinations, where\n Gemini Code Assist might generate outputs that are\n plausible-sounding but factually incorrect, irrelevant, inappropriate, or\n nonsensical. Hallucinations can also include fabricating links to web pages\n that don't exist and have never existed. For more information, see\n [Write better prompts for Gemini for Google Cloud](https://cloud.google.com/gemini/docs/discover/write-prompts).\n\n- **Data quality and tuning.** The quality, accuracy, and bias of the prompt\n data that's entered into Gemini Code Assist products can have a\n significant impact on its performance. If users enter inaccurate or incorrect\n prompts, Gemini Code Assist might return suboptimal or false\n responses.\n\n- **Bias amplification.** Language models can inadvertently amplify existing\n biases in their training data, leading to outputs that might further reinforce\n societal prejudices and unequal treatment of certain groups.\n\n- **Language quality.** While Gemini Code Assist yields\n impressive multilingual capabilities on the benchmarks that we evaluated\n against, the majority of our benchmarks (including all of the fairness\n evaluations) are in American English.\n\n Language models might provide inconsistent service quality to different users.\n For example, text generation might not be as effective for some dialects or\n language varieties because they are underrepresented in the training data.\n Performance might be worse for non-English languages or English language\n varieties with less representation.\n- **Fairness benchmarks and subgroups.** Google Research's fairness analyses of\n Gemini models don't provide an exhaustive account of the various\n potential risks. For example, we focus on biases along gender, race,\n ethnicity, and religion axes, but perform the analysis only on the American\n English language data and model outputs.\n\n- **Limited domain expertise.** Gemini models have been trained on\n Google Cloud technology, but it might lack the depth of knowledge that's\n required to provide accurate and detailed responses on highly specialized or\n technical topics, leading to superficial or incorrect information.\n\nGemini safety and toxicity filtering\n------------------------------------\n\nGemini Code Assist prompts and responses are checked against a\ncomprehensive list of safety attributes as applicable for each use case. These\nsafety attributes aim to filter out content that violates our\n[Acceptable Use Policy](https://cloud.google.com/terms/aup). If an output is\nconsidered harmful, the response will be blocked.\n\nWhat's next\n-----------\n\n- Learn more about [how Gemini Code Assist cites sources when helps you generate code](/gemini-code-assist/docs/works#how-when-gemini-cites-sources)."]]