本页面简要介绍了使用大语言模型 (LLM) 开发 Google Workspace 解决方案的最佳实践和推荐工具。
在 Google Workspace 上进行开发时,LLM 可通过以下方式为您提供帮助:
- 生成或排查用于调用 Google Workspace API 的代码。
- 根据最新的 Google Workspace 开发者文档构建解决方案。
- 通过命令行或集成开发环境 (IDE) 访问 Google Workspace 资源。
使用 Model Context Protocol (MCP) 进行 Google Workspace 开发
Model Context Protocol (MCP) 是一种标准化的开放协议,可为 LLM 和 AI 智能体提供上下文,以便它们在多轮对话中返回质量更高的信息。
Google Workspace 具有一个 MCP 服务器,该服务器提供了一些工具,供 LLM 访问和搜索开发者文档。您可以在构建或使用 AI 智能体时使用此服务器来执行以下任一操作
- 检索有关 Google Workspace API 和服务的最新信息。
- 提取官方 Google Workspace 文档和代码段。
如需使用该服务器,请将此服务器添加到您的 MCP 客户端配置中:
对于 Gemini Code Assist,请将以下内容添加到您的
settings.json文件中:{ "mcpServers": { "workspace-developer": { "httpUrl": "https://workspace-developer.goog/mcp", "trust": true }, } }对于 Gemini CLI,请从终端运行以下 命令,以将此服务器添加为扩展程序:
gemini extensions install https://github.com/googleworkspace/developer-tools
如需改进服务器的输出,请添加一些规则,指示 LLM 在使用 Google Workspace API 时使用该服务器。例如,当您将该服务器用作 Gemini CLI 扩展程序时,请将以下规则添加到
GEMINI.md
文件中:
Always use the `workspace-developer` tools when using Google Workspace APIs.
使用 AI 代码助理
我们建议您将以下 AI 代码助理工具纳入您的 Google Workspace 开发工作流中:
Google AI Studio:为 您的 Google Workspace 解决方案生成代码,包括 Apps 脚本项目的代码。
Gemini Code Assist:通过 Gemini 2.5 模型在 IDE 中获得 AI 驱动的帮助。