หน้านี้ให้ภาพรวมของแนวทางปฏิบัติแนะนำและเครื่องมือที่แนะนำสำหรับการ ทำงานกับโมเดลภาษาขนาดใหญ่ (LLM) เพื่อพัฒนาโซลูชันสำหรับ Google Workspace
เมื่อพัฒนาแอปใน Google Workspace โมเดลภาษาขนาดใหญ่จะช่วยคุณได้ใน วิธีต่อไปนี้
- สร้างหรือแก้ปัญหารหัสสำหรับการเรียกใช้ Google Workspace API
- สร้างโซลูชันตามเอกสารประกอบสำหรับนักพัฒนาซอฟต์แวร์ Google Workspace ล่าสุด
- เข้าถึงทรัพยากร Google Workspace จากบรรทัดคำสั่งหรือ สภาพแวดล้อมการพัฒนาแบบผสานรวม (IDE)
ใช้ Model Context Protocol (MCP) สำหรับการพัฒนา Google Workspace
Model Context Protocol (MCP) คือโปรโตคอลแบบเปิดที่เป็นมาตรฐานซึ่งให้บริบทแก่ LLM และเอเจนต์ AI เพื่อให้ สามารถแสดงข้อมูลที่มีคุณภาพดีขึ้นในการสนทนาแบบหลายรอบ
Google Workspace มีเซิร์ฟเวอร์ MCP ที่มีเครื่องมือสำหรับ LLM เพื่อเข้าถึงและค้นหาเอกสารประกอบสำหรับนักพัฒนาแอป คุณใช้เซิร์ฟเวอร์นี้ได้เมื่อสร้างหรือใช้เอเจนต์ AI เพื่อทำสิ่งต่อไปนี้
- ดึงข้อมูลล่าสุดเกี่ยวกับ API และบริการของ Google Workspace
- ดึงข้อมูลเอกสารและข้อมูลโค้ดอย่างเป็นทางการของ Google Workspace
หากต้องการใช้เซิร์ฟเวอร์ ให้เพิ่มเซิร์ฟเวอร์นี้ลงในการกำหนดค่าไคลเอ็นต์ MCP
หากต้องการเพิ่มเซิร์ฟเวอร์ลงใน Gemini Code Assist ให้เพิ่มโค้ดต่อไปนี้ลงในไฟล์
settings.json{ "mcpServers": { "workspace-developer": { "httpUrl": "https://workspace-developer.goog/mcp", "trust": true }, } }หากต้องการติดตั้งเซิร์ฟเวอร์เป็นส่วนขยาย Gemini CLI ให้เรียกใช้คำสั่งต่อไปนี้จากเทอร์มินัล
gemini extensions install https://github.com/googleworkspace/developer-tools
หากต้องการปรับปรุงเอาต์พุตจากเซิร์ฟเวอร์ ให้เพิ่มกฎที่สั่งให้ LLM ใช้
เซิร์ฟเวอร์เมื่อทำงานกับ Google Workspace API ตัวอย่างเช่น เมื่อใช้เซิร์ฟเวอร์เป็นส่วนขยาย Gemini CLI ให้เพิ่มกฎต่อไปนี้ลงในไฟล์ GEMINI.md
Always use the `workspace-developer` tools when using Google Workspace APIs.
ใช้ผู้ช่วยเขียนโค้ด AI
เราขอแนะนำเครื่องมือช่วยเขียนโค้ดด้วย AI ต่อไปนี้เพื่อนำไปใช้ใน เวิร์กโฟลว์สำหรับการพัฒนา Google Workspace
Google AI Studio: สร้างโค้ดสำหรับ โซลูชัน Google Workspace รวมถึงโค้ดสำหรับโปรเจ็กต์ Google Apps Script
Gemini Code Assist: รับความช่วยเหลือที่ขับเคลื่อนโดย AI ใน IDE จากโมเดล Gemini 2.5