از مدل‌های زبان بزرگ (LLM) برای توسعه در Google Workspace استفاده کنید

5 دقیقه وقت دارید؟
با شرکت در یک نظرسنجی آنلاین سریع به ما در بهبود اسناد Google Workspace کمک کنید.

این صفحه مروری بر بهترین شیوه‌ها و ابزارهای توصیه‌شده برای کار با مدل‌های زبان بزرگ (LLM) برای توسعه راه‌حل‌هایی برای Google Workspace ارائه می‌کند.

هنگام توسعه در Google Workspace، LLM ها می توانند به روش های زیر به شما کمک کنند:

  • کدی را برای تماس با Google Workspace API ایجاد یا عیب‌یابی کنید.
  • بر اساس آخرین مستندات توسعه دهنده Google Workspace راه حلی بسازید.
  • از خط فرمان یا محیط توسعه یکپارچه خود (IDE) به منابع Google Workspace دسترسی پیدا کنید.

از پروتکل بافت مدل (MCP) برای Google Workspace استفاده کنید

پروتکل بافت مدل (MCP) یک پروتکل باز استاندارد است که زمینه را برای LLMها و عوامل هوش مصنوعی فراهم می کند تا بتوانند اطلاعات با کیفیت بهتری را در مکالمات چند نوبتی برگردانند.

Google Workspace یک سرور MCP دارد که طرحی را برای یک LLM برای دسترسی و جستجوی اسناد برنامه‌نویس فراهم می‌کند. زمانی که در حال ساخت یا استفاده از عوامل هوش مصنوعی برای انجام هر یک از موارد زیر هستید، می توانید از این سرور استفاده کنید:

برای استقرار سرور، از مخزن Google Workspace GitHub دیدن کنید:

Google Workspace MCP Developer Assist را در GitHub مشاهده کنید

از دستیاران کد هوش مصنوعی استفاده کنید

ما ابزارهای کمکی کد هوش مصنوعی زیر را برای گنجاندن در گردش کار خود برای توسعه Google Workspace توصیه می کنیم:

  • Google AI Studio : برای راه‌حل‌های Google Workspace خود کد ایجاد کنید، از جمله کد برای پروژه‌های Google Apps Script .

  • Gemini Code Assist : به شما امکان می‌دهد از LLM مستقیماً از IDE خود استفاده کنید و شامل دستور @googledocs برای دسترسی به اسناد Google Docs می‌شود.