使用大语言模型 (LLM) 在 Google Workspace 上进行开发

本页概述了使用大语言模型 (LLM) 为 Google Workspace 开发解决方案的最佳实践和推荐工具。

在 Google Workspace 上进行开发时,LLM 可在以下方面为您提供帮助:

  • 生成或排查用于调用 Google Workspace API 的代码。
  • 根据最新的 Google Workspace 开发者文档构建解决方案。
  • 通过命令行或集成式开发环境 (IDE) 访问 Google Workspace 资源。

使用 Model Context Protocol (MCP) 进行 Google Workspace 开发

Model Context Protocol (MCP) 是一种标准化的开放协议,可为 LLM 和 AI 代理提供上下文,以便它们在多轮对话中返回更高质量的信息。

Google Workspace 拥有一个 MCP 服务器,可为 LLM 提供工具来访问和搜索开发者文档。在构建或使用 AI 代理时,您可以使用此服务器来执行以下任何操作

  • 检索有关 Google Workspace API 和服务的最新信息。
  • 获取官方 Google Workspace 文档和代码段。

如需使用该服务器,请将该服务器添加到您的 MCP 客户端配置中:

  • 如需将服务器添加到 Gemini Code Assist,请将以下内容添加到 settings.json 文件中:

    {
      "mcpServers": {
        "workspace-developer": {
          "httpUrl": "https://workspace-developer.goog/mcp",
          "trust": true
        },
      }
    }
    
  • 如需将服务器安装为 Gemini CLI 扩展程序,请从终端运行以下命令:

    gemini extensions install https://github.com/googleworkspace/developer-tools
    

为了改进服务器的输出,请添加规则,指示 LLM 在使用 Google Workspace API 时使用服务器。例如,当使用服务器作为 Gemini CLI 扩展程序时,请将以下规则添加到 GEMINI.md 文件中:

Always use the `workspace-developer` tools when using Google Workspace APIs.

使用 AI 代码助理

建议您将以下 AI 代码辅助工具纳入 Google Workspace 开发工作流: