ใช้โมเดลภาษาขนาดใหญ่ (LLM) เพื่อพัฒนาใน Google Workspace

หน้านี้ให้ภาพรวมของแนวทางปฏิบัติแนะนำและเครื่องมือที่แนะนำสำหรับการ ทำงานกับโมเดลภาษาขนาดใหญ่ (LLM) เพื่อพัฒนาโซลูชันสำหรับ Google Workspace

เมื่อพัฒนาใน Google Workspace แล้ว LLM จะช่วยคุณได้ใน วิธีต่อไปนี้

  • สร้างหรือแก้ปัญหารหัสสำหรับการเรียกใช้ Google Workspace API
  • สร้างโซลูชันตามเอกสารประกอบสำหรับนักพัฒนาซอฟต์แวร์ Google Workspace ล่าสุด
  • เข้าถึงทรัพยากร Google Workspace จากบรรทัดคำสั่งหรือ สภาพแวดล้อมการพัฒนาแบบผสานรวม (IDE)

ใช้ Model Context Protocol (MCP) สำหรับการพัฒนา Google Workspace

Model Context Protocol (MCP) คือโปรโตคอลแบบเปิดที่เป็นมาตรฐานซึ่งให้บริบทแก่ LLM และเอเจนต์ AI เพื่อให้ สามารถแสดงข้อมูลที่มีคุณภาพดีขึ้นในการสนทนาแบบหลายรอบ

Google Workspace มีเซิร์ฟเวอร์ MCP ที่มีเครื่องมือสำหรับ LLM เพื่อเข้าถึงและค้นหาเอกสารประกอบสำหรับนักพัฒนาแอป คุณใช้เซิร์ฟเวอร์นี้ได้เมื่อสร้างหรือใช้เอเจนต์ AI เพื่อทำสิ่งต่อไปนี้

  • ดึงข้อมูลล่าสุดเกี่ยวกับ API และบริการของ Google Workspace
  • ดึงข้อมูลเอกสารและข้อมูลโค้ดอย่างเป็นทางการของ Google Workspace

หากต้องการเริ่มต้นใช้งาน ให้เพิ่มเซิร์ฟเวอร์นี้ลงในการกำหนดค่าไคลเอ็นต์ MCP ตัวอย่างเช่น หากต้องการเพิ่มเซิร์ฟเวอร์ลงใน Gemini Code Assist ให้เพิ่มข้อมูลต่อไปนี้ลงในไฟล์ settings.json

{
  "mcpServers": {
    "workspace-developer": {
      "httpUrl": "https://workspace-developer.goog/mcp",
      "trust": true
    },
  }
}

หากต้องการปรับปรุงการใช้งานเครื่องมือ คุณอาจต้องเพิ่มวิธีการที่คล้ายกับ ต่อไปนี้ลงในไฟล์กฎ เช่น GEMINI.md

Always use the `workspace-developer` tools when using Google Workspace APIs.

ใช้ผู้ช่วยเขียนโค้ด AI

เราขอแนะนำเครื่องมือช่วยเขียนโค้ดด้วย AI ต่อไปนี้เพื่อนำไปใช้ใน เวิร์กโฟลว์สำหรับการพัฒนา Google Workspace

  • Google AI Studio: สร้างโค้ดสำหรับ โซลูชัน Google Workspace รวมถึงโค้ดสำหรับโปรเจ็กต์ Google Apps Script

  • Gemini Code Assist: ช่วยให้คุณใช้ LLM ได้จาก IDE โดยตรง และมีคำสั่ง @googledocs เพื่อ เข้าถึงเอกสารใน Google เอกสาร