בדף הזה מופיעה סקירה כללית של שיטות מומלצות וכלים מומלצים לעבודה עם מודלים גדולים של שפה (LLM) כדי לפתח פתרונות ל-Google Workspace.
כשמפתחים ב-Google Workspace, מודלים של שפה גדולה (LLM) יכולים לעזור לכם בדרכים הבאות:
- ליצור קוד או לפתור בעיות בקוד לקריאה לממשקי API של Google Workspace.
- ליצור פתרון שמבוסס על התיעוד העדכני למפתחים של Google Workspace.
- גישה למשאבים של Google Workspace משורת הפקודה או מסביבת הפיתוח המשולבת (IDE).
שימוש ב-Model Context Protocol (MCP) לפיתוח ב-Google Workspace
פרוטוקול Model Context Protocol (MCP) הוא פרוטוקול פתוח וסטנדרטי שמספק הקשר למודלים של שפה גדולה (LLM) ולסוכני AI, כדי שהם יוכלו להחזיר מידע באיכות טובה יותר בשיחות מרובות תורות.
ל-Google Workspace יש שרת MCP שמספק כלים למודל LLM כדי לגשת לתיעוד למפתחים ולחפש בו. אתם יכולים להשתמש בשרת הזה כשאתם יוצרים סוכני AI או משתמשים בהם כדי לבצע את הפעולות הבאות
- אחזור מידע עדכני על ממשקי API ושירותים של Google Workspace.
- אפשר לאחזר קטעי מידע ותיעוד רשמי של Google Workspace.
כדי להשתמש בשרת, מוסיפים אותו להגדרות של לקוח ה-MCP:
כדי להוסיף את השרת ל-Gemini Code Assist, מוסיפים את השורה הבאה לקובץ
settings.json:{ "mcpServers": { "workspace-developer": { "httpUrl": "https://workspace-developer.goog/mcp", "trust": true }, } }כדי להתקין את השרת כתוסף ל-Gemini CLI, מריצים את הפקודה הבאה מהטרמינל:
gemini extensions install https://github.com/googleworkspace/developer-tools
כדי לשפר את הפלט מהשרת, מוסיפים כללים שמנחים את מודל ה-LLM להשתמש בשרת כשעובדים עם ממשקי API של Google Workspace. לדוגמה, כשמשתמשים בשרת כתוסף ל-Gemini CLI, מוסיפים את הכלל הבא לקובץ GEMINI.md:
Always use the `workspace-developer` tools when using Google Workspace APIs.
שימוש בעוזרים מבוססי-AI לכתיבת קוד
אנחנו ממליצים לשלב את כלי ה-AI הבאים לסיוע בכתיבת קוד בתהליך העבודה שלכם בפיתוח ל-Google Workspace:
Google AI Studio: יצירת קוד לפתרונות של Google Workspace, כולל קוד לפרויקטים של Google Apps Script.
Gemini Code Assist: קבלת עזרה מבוססת-AI בסביבת הפיתוח המשולבת (IDE) מהמודל Gemini 2.5.