本頁面提供最佳做法和建議工具的總覽,協助您使用大型語言模型 (LLM) 開發 Google Workspace 解決方案。
在 Google Workspace 上開發時,LLM 可協助您執行下列操作:
- 產生或排解呼叫 Google Workspace API 的程式碼。
- 根據最新的 Google Workspace 開發人員文件建構解決方案。
- 透過指令列或整合式開發環境 (IDE) 存取 Google Workspace 資源。
使用 Model Context Protocol (MCP) 進行 Google Workspace 開發
模型上下文協定 (MCP) 是一種標準化開放協定,可為 LLM 和 AI 代理程式提供背景資訊,讓這些模型/代理程式在多輪對話中傳回品質更佳的資訊。
Google Workspace 設有 MCP 伺服器,可提供工具供 LLM 存取及搜尋開發人員說明文件。您可以在建構或使用 AI 代理程式時,透過這個伺服器執行下列任一操作:
- 取得 Google Workspace API 和服務的最新資訊。
- 擷取 Google Workspace 官方說明文件和程式碼片段。
如要開始使用,請將這個伺服器新增至 MCP 用戶端設定。舉例來說,如要將伺服器新增至 Gemini Code Assist,請在 settings.json
檔案中新增下列內容:
{
"mcpServers": {
"workspace-developer": {
"httpUrl": "https://workspace-developer.goog/mcp",
"trust": true
},
}
}
為提升工具使用體驗,您可能需要在規則檔案 (例如 GEMINI.md
) 中新增類似下列的指令:
Always use the `workspace-developer` tools when using Google Workspace APIs.
使用 AI 程式碼輔助功能
建議您將下列 AI 程式碼輔助工具納入 Google Workspace 開發工作流程:
Google AI Studio:為 Google Workspace 解決方案生成程式碼,包括 Google Apps Script 專案的程式碼。
Gemini Code Assist:可直接在 IDE 中使用 LLM,並包含
@googledocs
指令,方便存取 Google 文件。