Large Language Models (LLMs) für die Entwicklung in Google Workspace verwenden

Auf dieser Seite finden Sie eine Übersicht über Best Practices und empfohlene Tools für die Arbeit mit Large Language Models (LLMs) zur Entwicklung von Lösungen für Google Workspace.

Beim Entwickeln in Google Workspace können LLMs Sie auf folgende Weise unterstützen:

  • Code zum Aufrufen von Google Workspace-APIs generieren oder Fehlerbehebung durchführen
  • Entwickeln Sie eine Lösung auf Grundlage der aktuellen Google Workspace-Entwicklerdokumentation.
  • Über die Befehlszeile oder Ihre integrierte Entwicklungsumgebung (IDE) auf Google Workspace-Ressourcen zugreifen

Model Context Protocol (MCP) für Google Workspace verwenden

Ein Model Context Protocol (MCP) ist ein standardisiertes offenes Protokoll, das LLMs und KI-Agenten Kontext zur Verfügung stellt, damit sie in mehrfachen Konversationen Informationen von besserer Qualität zurückgeben können.

Google Workspace hat einen MCP-Server, der ein Schema für ein LLM bereitstellt, um auf Entwicklerdokumentation zuzugreifen und darin zu suchen. Sie können diesen Server verwenden, wenn Sie KI-Agents erstellen oder nutzen, um Folgendes zu tun:

So stellen Sie den Server bereit:

Google Workspace MCP Developer Assist auf GitHub ansehen

KI‑Code-Assistenten verwenden

Wir empfehlen die folgenden KI-Tools zur Unterstützung von Code, die Sie in Ihren Workflow für die Google Workspace-Entwicklung einbinden können: