Auf dieser Seite finden Sie eine Übersicht über Best Practices und empfohlene Tools für die Arbeit mit Large Language Models (LLMs) zur Entwicklung von Lösungen für Google Workspace.
Beim Entwickeln in Google Workspace können LLMs Sie auf folgende Weise unterstützen:
- Code zum Aufrufen von Google Workspace-APIs generieren oder Fehlerbehebung durchführen
- Entwickeln Sie eine Lösung auf Grundlage der aktuellen Google Workspace-Entwicklerdokumentation.
- Über die Befehlszeile oder Ihre integrierte Entwicklungsumgebung (IDE) auf Google Workspace-Ressourcen zugreifen
Model Context Protocol (MCP) für Google Workspace verwenden
Ein Model Context Protocol (MCP) ist ein standardisiertes offenes Protokoll, das LLMs und KI-Agenten Kontext zur Verfügung stellt, damit sie in mehrfachen Konversationen Informationen von besserer Qualität zurückgeben können.
Google Workspace hat einen MCP-Server, der ein Schema für ein LLM bereitstellt, um auf Entwicklerdokumentation zuzugreifen und darin zu suchen. Sie können diesen Server verwenden, wenn Sie KI-Agents erstellen oder nutzen, um Folgendes zu tun:
- Aktuelle Informationen zu Google Workspace-APIs und ‑Diensten abrufen
- Benutzeroberflächen (UIs) erstellen und in der Vorschau ansehen, die Google Workspace-Anwendungen erweitern. Mit diesen Benutzeroberflächen können Sie Google Workspace-Add‑ons, Google Chat-Apps, Google Drive-Apps und mehr erstellen.
So stellen Sie den Server bereit:
Google Workspace MCP Developer Assist auf GitHub ansehen
KI‑Code-Assistenten verwenden
Wir empfehlen die folgenden KI-Tools zur Unterstützung von Code, die Sie in Ihren Workflow für die Google Workspace-Entwicklung einbinden können:
Google AI Studio: Generieren Sie Code für Ihre Google Workspace-Lösungen, einschließlich Code für Google Apps Script-Projekte.
Gemini Code Assist: Damit können Sie LLMs direkt in Ihrer IDE verwenden. Außerdem ist der Befehl
@googledocs
enthalten, mit dem Sie auf Google Docs-Dokumente zugreifen können.