Ta strona zawiera omówienie sprawdzonych metod i zalecanych narzędzi do pracy z dużymi modelami językowymi (LLM) w celu tworzenia rozwiązań dla Google Workspace.
Podczas tworzenia aplikacji w Google Workspace duże modele językowe mogą Ci pomóc w następujący sposób:
- Generowanie kodu do wywoływania interfejsów Google Workspace API i rozwiązywanie problemów z nim.
- Stwórz rozwiązanie na podstawie najnowszej dokumentacji dla deweloperów Google Workspace.
- uzyskiwać dostęp do zasobów Google Workspace z wiersza poleceń lub zintegrowanego środowiska programistycznego (IDE);
Korzystanie z protokołu Model Context Protocol (MCP) w Google Workspace
Protokół kontekstu modelu (MCP) to standardowy protokół otwarty, który dostarcza kontekst do modeli LLM i agentów AI, aby mogły one zwracać informacje lepszej jakości w wielokrotnych rozmowach.
Google Workspace ma serwer MCP, który udostępnia schemat umożliwiający LLM dostęp do dokumentacji dla programistów i jej przeszukiwanie. Możesz używać tego serwera podczas tworzenia lub używania agentów AI do wykonywania tych czynności:
- Uzyskuj aktualne informacje o interfejsach API i usługach Google Workspace.
- Twórz i wyświetlaj podgląd interfejsów użytkownika, które rozszerzają aplikacje Google Workspace. Za pomocą tych interfejsów możesz tworzyć dodatki do Google Workspace, aplikacje Google Chat, aplikacje Google Drive i inne.
Aby wdrożyć serwer, otwórz repozytorium GitHub Google Workspace:
Wyświetl w GitHubie narzędzie Google Workspace MCP Developer Assist
Korzystanie z asystentów AI do kodowania
Do tworzenia aplikacji w Google Workspace zalecamy włączenie w proces pracy tych narzędzi AI do pomocy w pisaniu kodu:
Google AI Studio: generowanie kodu do rozwiązań Google Workspace, w tym kodu do projektów Google Apps Script.
Gemini Code Assist: umożliwia korzystanie z LLM bezpośrednio w IDE i zawiera polecenie
@googledocs
, które pozwala uzyskać dostęp do dokumentów Google.