이 페이지에서는 대규모 언어 모델 (LLM)을 사용하여 Google Workspace용 솔루션을 개발할 때의 권장사항과 권장 도구를 간략하게 설명합니다.
Google Workspace에서 개발할 때 LLM은 다음과 같은 방식으로 도움이 될 수 있습니다.
- Google Workspace API 호출을 위한 코드를 생성하거나 문제를 해결합니다.
- 최신 Google Workspace 개발자 문서를 기반으로 솔루션을 빌드합니다.
- 명령줄 또는 통합 개발 환경 (IDE)에서 Google Workspace 리소스에 액세스합니다.
Google Workspace 개발을 위해 Model Context Protocol (MCP) 사용
모델 컨텍스트 프로토콜 (MCP)은 LLM과 AI 에이전트가 여러 턴으로 구성된 대화에서 더 나은 품질의 정보를 반환할 수 있도록 컨텍스트를 제공하는 표준화된 개방형 프로토콜입니다.
Google Workspace에는 LLM이 개발자 문서에 액세스하고 이를 검색할 수 있는 도구를 제공하는 MCP 서버가 있습니다. AI 에이전트를 빌드하거나 사용하여 다음 작업을 수행할 때 이 서버를 사용할 수 있습니다.
- Google Workspace API 및 서비스에 관한 최신 정보를 가져옵니다.
- 공식 Google Workspace 문서와 스니펫을 가져옵니다.
서버를 사용하려면 MCP 클라이언트 구성에 이 서버를 추가하세요.
Gemini Code Assist에 서버를 추가하려면
settings.json
파일에 다음을 추가합니다.{ "mcpServers": { "workspace-developer": { "httpUrl": "https://workspace-developer.goog/mcp", "trust": true }, } }
서버를 Gemini CLI 확장 프로그램으로 설치하려면 터미널에서 다음 명령어를 실행합니다.
gemini extensions install https://github.com/googleworkspace/developer-tools
서버의 출력을 개선하려면 Google Workspace API를 사용할 때 서버를 사용하도록 LLM에 지시하는 규칙을 추가하세요. 예를 들어 서버를 Gemini CLI 확장 프로그램으로 사용하는 경우 GEMINI.md
파일에 다음 규칙을 추가합니다.
Always use the `workspace-developer` tools when using Google Workspace APIs.
AI 코드 어시스턴트 사용
Google Workspace 개발 워크플로에 통합할 수 있는 AI 코드 지원 도구는 다음과 같습니다.
Google AI Studio: Google Apps Script 프로젝트용 코드를 비롯한 Google Workspace 솔루션용 코드를 생성합니다.
Gemini Code Assist: Gemini 2.5 모델에서 IDE의 AI 기반 지원을 받으세요.