大規模言語モデル(LLM)を使用して Google Workspace で開発する

このページでは、大規模言語モデル(LLM)を使用して Google Workspace 向けソリューションを開発する際のベスト プラクティスと推奨ツールについて説明します。

Google Workspace で開発を行う際に、LLM は次のような点で役立ちます。

  • Google Workspace API を呼び出すコードを生成またはトラブルシューティングする。
  • 最新の Google Workspace デベロッパー ドキュメントに基づいてソリューションを構築する。
  • コマンドラインまたは統合開発環境(IDE)から Google Workspace リソースにアクセスする。

Google Workspace 開発に Model Context Protocol(MCP)を使用する

Model Context Protocol(MCP) は、LLM と AI エージェントにコンテキストを提供して、複数ターンの会話でより質の高い情報を返せるようにする標準化されたオープン プロトコルです。

Google Workspace には、LLM がデベロッパー ドキュメントにアクセスして検索するためのツールを提供する MCP サーバーがあります。このサーバーは、AI エージェントを構築または使用して次のいずれかを行う場合に利用できます。

  • Google Workspace API とサービスに関する最新情報を取得する。
  • Google Workspace の公式ドキュメントとスニペットを取得する。

サーバーを使用するには、このサーバーを MCP クライアント構成に追加します。

  • Gemini Code Assist の場合は、 以下の内容を settings.json ファイルに追加します。

    {
     "mcpServers": {
       "workspace-developer": {
         "httpUrl": "https://workspace-developer.goog/mcp",
         "trust": true
       },
     }
    }
    
  • Gemini CLI の場合は、ターミナルから次の コマンドを実行して、このサーバーを拡張機能として追加します。

    gemini extensions install https://github.com/googleworkspace/developer-tools

サーバーからの出力を改善するには、Google Workspace API を使用するときにサーバーを使用するように LLM に指示するルールを追加します。たとえば、サーバーを Gemini CLI 拡張機能として使用する場合は、 ファイルに次のルールを追加します。GEMINI.md

Always use the `workspace-developer` tools when using Google Workspace APIs.

AI コード アシスタントを使用する

Google Workspace 開発のワークフローに組み込むには、次の AI コード アシスタント ツールをおすすめします。

  • Google AI Studio: Apps Script プロジェクトのコードなど、 Google Workspace ソリューションのコードを生成します。

  • Gemini Code Assist: Gemini 2.5 モデルから IDE で AI を活用したアシスタンスを利用できます。