ส่งความคิดเห็น
ความปลอดภัย
จัดทุกอย่างให้เป็นระเบียบอยู่เสมอด้วยคอลเล็กชัน
บันทึกและจัดหมวดหมู่เนื้อหาตามค่ากำหนดของคุณ
ความปลอดภัย ของ AI ประกอบด้วยชุดเทคนิคการออกแบบและการดำเนินการที่ควรปฏิบัติตามเพื่อหลีกเลี่ยงและควบคุมการดําเนินการที่อาจก่อให้เกิดอันตราย ไม่ว่าจะตั้งใจหรือไม่ตั้งใจก็ตาม
เช่น ระบบ AI ทำงานตามที่ตั้งใจไว้ไหม แม้จะต้องเผชิญกับการละเมิดความปลอดภัยหรือการโจมตีที่มีเป้าหมาย ระบบ AI ทำงานได้อย่างปลอดภัยแม้ถูกรบกวนหรือไม่ คุณวางแผนล่วงหน้าเพื่อป้องกันหรือหลีกเลี่ยงความเสี่ยงอย่างไร ระบบ AI ทำงานได้อย่างเสถียรและเชื่อถือได้ภายใต้แรงกดดันหรือไม่
เทคนิคด้านความปลอดภัยอย่างหนึ่งคือการทดสอบการโจมตี หรือการฝึกพยายาม "ทำลาย" แอปพลิเคชันของคุณเองเพื่อดูลักษณะการทำงานเมื่อป้อนข้อมูลที่ประสงค์ร้ายหรือเป็นอันตรายโดยไม่ตั้งใจ ชุดเครื่องมือ Generative AI อย่างมีความรับผิดชอบ อธิบายเพิ่มเติมเกี่ยวกับการประเมินความปลอดภัย รวมถึงการทดสอบการโจมตี ดูข้อมูลเพิ่มเติมเกี่ยวกับสิ่งที่ Google ทําในด้านนี้และบทเรียนที่ได้เรียนรู้ได้ในบล็อกโพสต์เกี่ยวกับคีย์เวิร์ดเรื่อง AI Red Team ของ Google: แฮ็กเกอร์ที่มีจริยธรรมที่ทําให้ AI ปลอดภัยยิ่งขึ้น หรือที่ SAIF: คู่มือของ Google สําหรับ AI ที่ปลอดภัย
ส่งความคิดเห็น
เนื้อหาของหน้าเว็บนี้ได้รับอนุญาตภายใต้ใบอนุญาตที่ต้องระบุที่มาของครีเอทีฟคอมมอนส์ 4.0 และตัวอย่างโค้ดได้รับอนุญาตภายใต้ใบอนุญาต Apache 2.0 เว้นแต่จะระบุไว้เป็นอย่างอื่น โปรดดูรายละเอียดที่นโยบายเว็บไซต์ Google Developers Java เป็นเครื่องหมายการค้าจดทะเบียนของ Oracle และ/หรือบริษัทในเครือ
อัปเดตล่าสุด 2025-07-27 UTC
หากต้องการบอกให้เราทราบเพิ่มเติม
[[["เข้าใจง่าย","easyToUnderstand","thumb-up"],["แก้ปัญหาของฉันได้","solvedMyProblem","thumb-up"],["อื่นๆ","otherUp","thumb-up"]],[["ไม่มีข้อมูลที่ฉันต้องการ","missingTheInformationINeed","thumb-down"],["ซับซ้อนเกินไป/มีหลายขั้นตอนมากเกินไป","tooComplicatedTooManySteps","thumb-down"],["ล้าสมัย","outOfDate","thumb-down"],["ปัญหาเกี่ยวกับการแปล","translationIssue","thumb-down"],["ตัวอย่าง/ปัญหาเกี่ยวกับโค้ด","samplesCodeIssue","thumb-down"],["อื่นๆ","otherDown","thumb-down"]],["อัปเดตล่าสุด 2025-07-27 UTC"],[],[]]