หน้านี้ให้ภาพรวมของแนวทางปฏิบัติแนะนำและเครื่องมือที่แนะนำสำหรับการ ทำงานกับโมเดลภาษาขนาดใหญ่ (LLM) เพื่อพัฒนาโซลูชันสำหรับ Google Workspace
เมื่อพัฒนาใน Google Workspace แล้ว LLM จะช่วยคุณได้ใน วิธีต่อไปนี้
- สร้างหรือแก้ปัญหารหัสสำหรับการเรียกใช้ Google Workspace API
- สร้างโซลูชันตามเอกสารประกอบสำหรับนักพัฒนาซอฟต์แวร์ Google Workspace ล่าสุด
- เข้าถึงทรัพยากร Google Workspace จากบรรทัดคำสั่งหรือ สภาพแวดล้อมการพัฒนาแบบผสานรวม (IDE)
ใช้ Model Context Protocol (MCP) สำหรับการพัฒนา Google Workspace
Model Context Protocol (MCP) คือโปรโตคอลแบบเปิดที่เป็นมาตรฐานซึ่งให้บริบทแก่ LLM และเอเจนต์ AI เพื่อให้ สามารถแสดงข้อมูลที่มีคุณภาพดีขึ้นในการสนทนาแบบหลายรอบ
Google Workspace มีเซิร์ฟเวอร์ MCP ที่มีเครื่องมือสำหรับ LLM เพื่อเข้าถึงและค้นหาเอกสารประกอบสำหรับนักพัฒนาแอป คุณใช้เซิร์ฟเวอร์นี้ได้เมื่อสร้างหรือใช้เอเจนต์ AI เพื่อทำสิ่งต่อไปนี้
- ดึงข้อมูลล่าสุดเกี่ยวกับ API และบริการของ Google Workspace
- ดึงข้อมูลเอกสารและข้อมูลโค้ดอย่างเป็นทางการของ Google Workspace
หากต้องการเริ่มต้นใช้งาน ให้เพิ่มเซิร์ฟเวอร์นี้ลงในการกำหนดค่าไคลเอ็นต์ MCP ตัวอย่างเช่น
หากต้องการเพิ่มเซิร์ฟเวอร์ลงใน Gemini Code Assist ให้เพิ่มข้อมูลต่อไปนี้ลงในไฟล์
settings.json
{
"mcpServers": {
"workspace-developer": {
"httpUrl": "https://workspace-developer.goog/mcp",
"trust": true
},
}
}
หากต้องการปรับปรุงการใช้งานเครื่องมือ คุณอาจต้องเพิ่มวิธีการที่คล้ายกับ
ต่อไปนี้ลงในไฟล์กฎ เช่น GEMINI.md
Always use the `workspace-developer` tools when using Google Workspace APIs.
ใช้ผู้ช่วยเขียนโค้ด AI
เราขอแนะนำเครื่องมือช่วยเขียนโค้ดด้วย AI ต่อไปนี้เพื่อนำไปใช้ใน เวิร์กโฟลว์สำหรับการพัฒนา Google Workspace
Google AI Studio: สร้างโค้ดสำหรับ โซลูชัน Google Workspace รวมถึงโค้ดสำหรับโปรเจ็กต์ Google Apps Script
Gemini Code Assist: ช่วยให้คุณใช้ LLM ได้จาก IDE โดยตรง และมีคำสั่ง
@googledocs
เพื่อ เข้าถึงเอกสารใน Google เอกสาร