این صفحه مروری بر بهترین شیوهها و ابزارهای توصیهشده برای کار با مدلهای زبان بزرگ (LLM) برای توسعه راهحلهایی برای Google Workspace ارائه میکند.
هنگام توسعه در Google Workspace، LLM ها می توانند به روش های زیر به شما کمک کنند:
- کدی را برای تماس با Google Workspace API ایجاد یا عیبیابی کنید.
- بر اساس آخرین مستندات توسعه دهنده Google Workspace راه حلی بسازید.
- از خط فرمان یا محیط توسعه یکپارچه خود (IDE) به منابع Google Workspace دسترسی پیدا کنید.
از پروتکل بافت مدل (MCP) برای توسعه Google Workspace استفاده کنید
پروتکل بافت مدل (MCP) یک پروتکل باز استاندارد است که زمینه را برای LLMها و عوامل هوش مصنوعی فراهم می کند تا بتوانند اطلاعات با کیفیت بهتری را در مکالمات چند نوبتی برگردانند.
Google Workspace یک سرور MCP دارد که ابزارهایی را برای یک LLM برای دسترسی و جستجوی اسناد توسعهدهنده فراهم میکند. زمانی که در حال ساخت یا استفاده از عوامل هوش مصنوعی برای انجام هر یک از موارد زیر هستید، می توانید از این سرور استفاده کنید:
- اطلاعات بهروز درباره APIها و سرویسهای Google Workspace را بازیابی کنید.
- اسناد و قطعات رسمی Google Workspace را واکشی کنید.
برای شروع، این سرور را به پیکربندی کلاینت MCP خود اضافه کنید. به عنوان مثال، برای افزودن سرور به Gemini Code Assist، موارد زیر را به فایل settings.json
خود اضافه کنید:
{
"mcpServers": {
"workspace-developer": {
"httpUrl": "https://workspace-developer.goog/mcp",
"trust": true
},
}
}
برای بهبود استفاده از ابزار، ممکن است لازم باشد دستورالعملهایی مشابه موارد زیر را به فایل قوانینی مانند GEMINI.md
اضافه کنید:
Always use the `workspace-developer` tools when using Google Workspace APIs.
از دستیاران کد هوش مصنوعی استفاده کنید
ما ابزارهای کمکی کد هوش مصنوعی زیر را برای گنجاندن در گردش کار خود برای توسعه Google Workspace توصیه می کنیم:
Google AI Studio : برای راهحلهای Google Workspace خود کد ایجاد کنید، از جمله کد برای پروژههای Google Apps Script .
Gemini Code Assist : به شما امکان میدهد از LLM مستقیماً از IDE خود استفاده کنید و شامل دستور
@googledocs
برای دسترسی به اسناد Google Docs میشود.