대규모 언어 모델 (LLM)을 사용하여 Google Workspace에서 개발
컬렉션을 사용해 정리하기
내 환경설정을 기준으로 콘텐츠를 저장하고 분류하세요.
이 페이지에서는 대규모 언어 모델 (LLM)을 사용하여 Google Workspace용 솔루션을 개발할 때의 권장사항과 추천 도구를 간략하게 설명합니다.
Google Workspace에서 개발할 때 LLM은 다음과 같은 방식으로 도움이 될 수 있습니다.
- Google Workspace API 호출을 위한 코드를 생성하거나 문제를 해결합니다.
- 최신 Google Workspace 개발자 문서를 기반으로 솔루션을 빌드합니다.
- 명령줄 또는 통합 개발 환경 (IDE)에서 Google Workspace 리소스에 액세스합니다.
Google Workspace용 Model Context Protocol (MCP) 사용
모델 컨텍스트 프로토콜 (MCP)은 LLM과 AI 에이전트가 여러 턴으로 구성된 대화에서 더 나은 품질의 정보를 반환할 수 있도록 컨텍스트를 제공하는 표준화된 개방형 프로토콜입니다.
Google Workspace에는 LLM이 개발자 문서에 액세스하고 이를 검색할 수 있는 스키마를 제공하는 MCP 서버가 있습니다. AI 에이전트를 빌드하거나 사용하여 다음 작업을 수행할 때 이 서버를 사용할 수 있습니다.
서버를 배포하려면 Google Workspace GitHub 저장소를 방문하세요.
GitHub에서 Google Workspace MCP 개발자 지원 보기
Google Workspace 개발 워크플로에 통합할 수 있는 AI 코드 지원 도구는 다음과 같습니다.
달리 명시되지 않는 한 이 페이지의 콘텐츠에는 Creative Commons Attribution 4.0 라이선스에 따라 라이선스가 부여되며, 코드 샘플에는 Apache 2.0 라이선스에 따라 라이선스가 부여됩니다. 자세한 내용은 Google Developers 사이트 정책을 참조하세요. 자바는 Oracle 및/또는 Oracle 계열사의 등록 상표입니다.
최종 업데이트: 2025-08-31(UTC)
[null,null,["최종 업데이트: 2025-08-31(UTC)"],[],[],null,["# Use Large Language Models (LLMs) to develop on Google Workspace\n\n|-------------------------------------------------------------------------------------------------------------------------------------------|\n| Got 5 minutes? Help us improve the Google Workspace documentation by taking a quick [online survey](https://forms.gle/qYR2wnTRueYeQeSi6). |\n\nThis page provides an overview of best practices and recommended tools for\nworking with Large Language Models (LLMs) to develop solutions for\nGoogle Workspace.\n\nWhen developing on Google Workspace, LLMs can help you in the\nfollowing ways:\n\n- Generate or troubleshoot code for calling Google Workspace APIs.\n- Build a solution based on the latest Google Workspace developer documentation.\n- Access Google Workspace resources from the command line or your integrated development environment (IDE).\n\nUse a Model Context Protocol (MCP) for Google Workspace\n-------------------------------------------------------\n\nA [Model Context Protocol (MCP)](https://modelcontextprotocol.io/introduction)\nis a standardized open protocol that provides context to LLMs and AI agents so that\nthey can return better quality information in multi-turn conversations.\n\nGoogle Workspace has an MCP server that provides a schema for an LLM\nto access and search developer documentation. You can use this server when\nyou're building or using AI agents to do any of the following:\n\n- Retrieve up-to-date information about Google Workspace APIs and services.\n- Build and preview [user interfaces (UIs) that extend Google Workspace applications](/workspace/extend). You can use these UIs to build Google Workspace add-ons, Google Chat apps, Google Drive apps, and more.\n\nTo deploy the server, visit the Google Workspace GitHub repository:\n\n[View Google Workspace MCP Developer Assist on GitHub](https://github.com/googleworkspace/dev-assist)\n\nUse AI code assistants\n----------------------\n\nWe recommend the following AI code assist tools to incorporate into your\nworkflow for Google Workspace development:\n\n- [Google AI Studio](https://ai.google.dev/aistudio): Generate code for\n your Google Workspace solutions, including code for\n [Google Apps Script](/apps-script) projects.\n\n- [Gemini Code Assist](/gemini-code-assist/docs/overview): Lets you use\n LLMs right from your IDE and includes the\n [`@googledocs`](/workspace/docs/api/how-tos/read-docs-gemini-tool) command to\n access Google Docs documents.\n\nRelated topics\n--------------\n\n- [Build with AI for Google Workspace](/workspace/guides/ai-overview)\n- [Extend the Google Workspace UI](/workspace/extend)\n- [Gemini for Google Cloud overview](https://cloud.google.com/gemini/docs/overview)\n- [Read documents while coding with Gemini Code Assist](/workspace/docs/api/how-tos/read-docs-gemini-tool)"]]