Gemini Code Assist i odpowiedzialna AI
Zadbaj o dobrą organizację dzięki kolekcji
Zapisuj i kategoryzuj treści zgodnie ze swoimi preferencjami.
Ten dokument opisuje, jak Gemini Code Assist jest zaprojektowany z uwzględnieniem możliwości, ograniczeń i ryzyka związanych z generatywną AI.
Możliwości i zagrożenia związane z dużymi modelami językowymi
Duże modele językowe (LLM) mogą wykonywać wiele przydatnych zadań, takich jak:
- Tłumaczenie tekstu.
- streszczać tekst;
- generować kod i pisać kreacje.
- obsługa chatbotów i wirtualnych asystentów;
- uzupełniają wyszukiwarki i systemy rekomendacji;
Jednocześnie rozwijające się możliwości techniczne modeli LLM mogą prowadzić do ich niewłaściwego użycia, nadużyć oraz niezamierzonych lub nieprzewidzianych konsekwencji.
Modele LLM mogą generować nieoczekiwane wyniki, w tym tekst obraźliwy, niestosowny lub nieprawdziwy. Modele LLM są bardzo wszechstronne, więc trudno przewidzieć, jakie dokładnie nieoczekiwane lub niezamierzone wyniki mogą wygenerować.
Ze względu na te zagrożenia i złożoność Gemini Code Assist został zaprojektowany zgodnie z zasadami Google dotyczącymi AI. Użytkownicy powinni jednak znać ograniczenia Gemini Code Assist, aby korzystać z niego bezpiecznie i odpowiedzialnie.
Ograniczenia Gemini Code Assist
Poniżej znajdziesz niektóre ograniczenia, które mogą wystąpić podczas korzystania z Gemini Code Assist:
Przypadki ekstremalne. Krawędzie przypadków odnoszą się do nietypowych, rzadkich lub wyjątkowych sytuacji, które nie są dobrze reprezentowane w danych do trenowania. Może to prowadzić do ograniczeń w wynikach modeli Gemini Code Assist, takich jak nadmierna pewność siebie modelu, błędne interpretowanie kontekstu lub nieodpowiednie wyniki.
Modelowanie halucynacji, uziemienia i rzeczywistości.
Modele Gemini Code Assist mogą nie uwzględniać wiedzy na temat świata rzeczywistego, właściwości fizycznych lub dokładnego zrozumienia. To ograniczenie może prowadzić do halucynacji modelu, w których przypadku Gemini Code Assist może generować wyniki, które brzmią wiarygodnie, ale są nieprawidłowe, nieistotne, nieodpowiednie lub bezsensowne. Halucynacje mogą też obejmować wymyślone linki do stron internetowych, które nie istnieją i nigdy nie istniały. Więcej informacji znajdziesz w artykule Tworzenie lepszych promptów w Gemini dla Google Cloud.
Jakość i dostrajanie danych. Jakość, dokładność i uprzedywidzenia danych promptu wprowadzanych do produktów Gemini Code Assist mogą mieć znaczący wpływ na ich działanie. Jeśli użytkownicy wpisują nieprawidłowe prompty, Gemini Code Assist może zwracać odpowiedzi nieoptymalne lub fałszywe.
Wzmocnienie stronniczości. Modele językowe mogą nieumyślnie wzmacniać istniejące uprzedzenia w danych treningowych, co prowadzi do generowania wyników, które mogą dodatkowo wzmacniać uprzedzenia społeczne i nierówne traktowanie niektórych grup.
Jakość języka. Gemini Code Assist oferuje imponujące możliwości wielojęzyczności w przypadku testów porównawczych, które oceniliśmy, ale większość z nich (w tym wszystkie oceny sprawiedliwości) jest w angielskim amerykańskim.
Modele językowe mogą zapewniać niejednolitą jakość usług dla różnych użytkowników.
Na przykład generowanie tekstu może być mniej skuteczne w przypadku niektórych dialektów lub odmian językowych, ponieważ są one słabo reprezentowane w danych treningowych.
Skuteczność może być niższa w przypadku języków innych niż angielski lub odmian języka angielskiego, które są rzadziej używane.
Wzorce i podgrupy sprawiedliwości Analizy sprawiedliwości modeli Gemini przeprowadzone przez Google Research nie wyczerpują wszystkich potencjalnych zagrożeń. Na przykład skupiamy się na uprzedzeniach związanych z płcią, rasą, pochodzeniem etnicznym i wyznaniem, ale analizę przeprowadzamy tylko na danych w języku angielskim (amerykańskim) i danych wyjściowych modelu.
Ograniczona znajomość danej dziedziny. Modele Gemini zostały wytrenowane na podstawie technologii Google Cloud, ale mogą nie mieć wystarczającej wiedzy, aby udzielać dokładnych i szczegółowych odpowiedzi na bardzo specjalistyczne lub techniczne tematy, co może prowadzić do podania powierzchownych lub nieprawidłowych informacji.
Filtrowanie Gemini pod kątem bezpieczeństwa i toksyczności
Prompty i odpowiedzi Gemini Code Assist są sprawdzane na podstawie obszernej listy atrybutów bezpieczeństwa, która jest odpowiednia dla danego przypadku użycia. Te atrybuty bezpieczeństwa służą do odfiltrowywania treści, które naruszają nasze Zasady dopuszczalnego użytkowania. Jeśli dane wyjściowe zostaną uznane za szkodliwe, odpowiedź zostanie zablokowana.
Co dalej?
O ile nie stwierdzono inaczej, treść tej strony jest objęta licencją Creative Commons – uznanie autorstwa 4.0, a fragmenty kodu są dostępne na licencji Apache 2.0. Szczegółowe informacje na ten temat zawierają zasady dotyczące witryny Google Developers. Java jest zastrzeżonym znakiem towarowym firmy Oracle i jej podmiotów stowarzyszonych.
Ostatnia aktualizacja: 2025-08-31 UTC.
[null,null,["Ostatnia aktualizacja: 2025-08-31 UTC."],[[["\u003cp\u003eGemini, a large language model (LLM), is designed with Google's AI principles to offer capabilities like language translation, text summarization, and code generation, while acknowledging the risks of misapplication and unintended outputs.\u003c/p\u003e\n"],["\u003cp\u003eGemini for Google Cloud has limitations such as producing unexpected output in edge cases, potentially generating inaccurate information, and lacking factuality, which can include hallucinated information or links.\u003c/p\u003e\n"],["\u003cp\u003eThe quality of Gemini's output is influenced by the data quality and accuracy of user prompts, and there is a potential for the amplification of societal biases present in its training data.\u003c/p\u003e\n"],["\u003cp\u003eGemini's performance can vary across languages and dialects, as it primarily evaluates fairness in American English, potentially resulting in inconsistent service quality for underrepresented language varieties.\u003c/p\u003e\n"],["\u003cp\u003eDespite being trained on Google Cloud technology, Gemini may lack the specialized knowledge required to offer accurate details on highly technical topics, and it does not have awareness of the user's specific environment in the Google Cloud console.\u003c/p\u003e\n"]]],[],null,["# Gemini Code Assist and responsible AI\n\nThis document describes how Gemini Code Assist is designed in\nview of the capabilities, limitations, and risks that are associated with\ngenerative AI.\n\nCapabilities and risks of large language models\n-----------------------------------------------\n\nLarge language models (LLMs) can perform many useful tasks such as the\nfollowing:\n\n- Translate language.\n- Summarize text.\n- Generate code and creative writing.\n- Power chatbots and virtual assistants.\n- Complement search engines and recommendation systems.\n\nAt the same time, the evolving technical capabilities of LLMs create the\npotential for misapplication, misuse, and unintended or unforeseen consequences.\n\nLLMs can generate output that you don't expect, including text that's offensive,\ninsensitive, or factually incorrect. Because LLMs are incredibly versatile, it\ncan be difficult to predict exactly what kinds of unintended or unforeseen\noutputs they might produce.\n\nGiven these risks and complexities, Gemini Code Assist is\ndesigned with [Google's AI principles](https://ai.google/responsibility/principles/)\nin mind. However, it's important for users to understand some of the limitations\nof Gemini Code Assist to work safely and responsibly.\n\nGemini Code Assist limitations\n------------------------------\n\nSome of the limitations that you might encounter using\nGemini Code Assist include (but aren't limited to) the following:\n\n- **Edge cases.** Edge cases refer to unusual, rare, or exceptional situations\n that aren't well represented in the training data. These cases can lead to\n limitations in the output of Gemini Code Assist models, such as\n model overconfidence, misinterpretation of context, or inappropriate outputs.\n\n- **Model hallucinations, grounding, and factuality.**\n Gemini Code Assist models might lack grounding and factuality\n in real-world knowledge, physical properties, or accurate understanding. This\n limitation can lead to model hallucinations, where\n Gemini Code Assist might generate outputs that are\n plausible-sounding but factually incorrect, irrelevant, inappropriate, or\n nonsensical. Hallucinations can also include fabricating links to web pages\n that don't exist and have never existed. For more information, see\n [Write better prompts for Gemini for Google Cloud](https://cloud.google.com/gemini/docs/discover/write-prompts).\n\n- **Data quality and tuning.** The quality, accuracy, and bias of the prompt\n data that's entered into Gemini Code Assist products can have a\n significant impact on its performance. If users enter inaccurate or incorrect\n prompts, Gemini Code Assist might return suboptimal or false\n responses.\n\n- **Bias amplification.** Language models can inadvertently amplify existing\n biases in their training data, leading to outputs that might further reinforce\n societal prejudices and unequal treatment of certain groups.\n\n- **Language quality.** While Gemini Code Assist yields\n impressive multilingual capabilities on the benchmarks that we evaluated\n against, the majority of our benchmarks (including all of the fairness\n evaluations) are in American English.\n\n Language models might provide inconsistent service quality to different users.\n For example, text generation might not be as effective for some dialects or\n language varieties because they are underrepresented in the training data.\n Performance might be worse for non-English languages or English language\n varieties with less representation.\n- **Fairness benchmarks and subgroups.** Google Research's fairness analyses of\n Gemini models don't provide an exhaustive account of the various\n potential risks. For example, we focus on biases along gender, race,\n ethnicity, and religion axes, but perform the analysis only on the American\n English language data and model outputs.\n\n- **Limited domain expertise.** Gemini models have been trained on\n Google Cloud technology, but it might lack the depth of knowledge that's\n required to provide accurate and detailed responses on highly specialized or\n technical topics, leading to superficial or incorrect information.\n\nGemini safety and toxicity filtering\n------------------------------------\n\nGemini Code Assist prompts and responses are checked against a\ncomprehensive list of safety attributes as applicable for each use case. These\nsafety attributes aim to filter out content that violates our\n[Acceptable Use Policy](https://cloud.google.com/terms/aup). If an output is\nconsidered harmful, the response will be blocked.\n\nWhat's next\n-----------\n\n- Learn more about [how Gemini Code Assist cites sources when helps you generate code](/gemini-code-assist/docs/works#how-when-gemini-cites-sources)."]]