Korzystanie z dużych modeli językowych (LLM) do tworzenia aplikacji w Google Workspace

Ta strona zawiera omówienie sprawdzonych metod i zalecanych narzędzi do pracy z dużymi modelami językowymi (LLM) w celu opracowywania rozwiązań dla Google Workspace.

Podczas tworzenia aplikacji w Google Workspace duże modele językowe mogą Ci pomóc w następujący sposób:

  • Generowanie kodu do wywoływania interfejsów Google Workspace API i rozwiązywanie problemów z nim.
  • Stwórz rozwiązanie na podstawie najnowszej dokumentacji dla deweloperów Google Workspace.
  • uzyskiwać dostęp do zasobów Google Workspace z wiersza poleceń lub zintegrowanego środowiska programistycznego (IDE);

Korzystanie z protokołu Model Context Protocol (MCP) w przypadku tworzenia aplikacji w Google Workspace

Protokół kontekstu modelu (MCP) to standardowy protokół otwarty, który dostarcza kontekst do modeli LLM i agentów AI, aby mogli oni zwracać informacje lepszej jakości w wielokrotnych rozmowach.

Google Workspace ma serwer MCP, który udostępnia narzędzia umożliwiające LLM dostęp do dokumentacji dla programistów i jej przeszukiwanie. Możesz używać tego serwera podczas tworzenia lub używania agentów AI do wykonywania tych czynności:

  • Uzyskuj aktualne informacje o interfejsach API i usługach Google Workspace.
  • Pobieranie oficjalnej dokumentacji i fragmentów kodu Google Workspace.

Aby rozpocząć, dodaj ten serwer do konfiguracji klienta MCP. Aby na przykład dodać serwer do Gemini Code Assist, dodaj do pliku settings.json ten kod:

{
  "mcpServers": {
    "workspace-developer": {
      "httpUrl": "https://workspace-developer.goog/mcp",
      "trust": true
    },
  }
}

Aby ułatwić korzystanie z narzędzia, może być konieczne dodanie do pliku reguł, np. GEMINI.md, instrukcji podobnych do tych:

Always use the `workspace-developer` tools when using Google Workspace APIs.

Korzystanie z asystentów AI do kodowania

Do tworzenia aplikacji w Google Workspace zalecamy włączenie w proces pracy tych narzędzi AI do pomocy w pisaniu kodu: