ความปลอดภัยของ AI ประกอบด้วยชุดเทคนิคการออกแบบและการดำเนินการที่ควรปฏิบัติตามเพื่อหลีกเลี่ยงและควบคุมการดําเนินการที่อาจก่อให้เกิดอันตราย ไม่ว่าจะตั้งใจหรือไม่ตั้งใจก็ตาม
เช่น ระบบ AI ทำงานตามที่ตั้งใจไว้ไหม แม้จะต้องเผชิญกับการละเมิดความปลอดภัยหรือการโจมตีที่มีเป้าหมาย ระบบ AI ทำงานได้อย่างปลอดภัยแม้ถูกรบกวนหรือไม่ คุณวางแผนล่วงหน้าเพื่อป้องกันหรือหลีกเลี่ยงความเสี่ยงอย่างไร ระบบ AI ทำงานได้อย่างเสถียรและเชื่อถือได้ภายใต้แรงกดดันหรือไม่
[[["เข้าใจง่าย","easyToUnderstand","thumb-up"],["แก้ปัญหาของฉันได้","solvedMyProblem","thumb-up"],["อื่นๆ","otherUp","thumb-up"]],[["ไม่มีข้อมูลที่ฉันต้องการ","missingTheInformationINeed","thumb-down"],["ซับซ้อนเกินไป/มีหลายขั้นตอนมากเกินไป","tooComplicatedTooManySteps","thumb-down"],["ล้าสมัย","outOfDate","thumb-down"],["ปัญหาเกี่ยวกับการแปล","translationIssue","thumb-down"],["ตัวอย่าง/ปัญหาเกี่ยวกับโค้ด","samplesCodeIssue","thumb-down"],["อื่นๆ","otherDown","thumb-down"]],["อัปเดตล่าสุด 2025-07-27 UTC"],[[["AI safety encompasses design and operational techniques to prevent harm, ensuring AI systems behave as intended, even under pressure or attack."],["Adversarial testing is a key safety technique where AI systems are intentionally challenged with malicious or harmful input to assess their robustness."],["Google's Responsible AI Practices provide recommendations for protecting AI systems, including methods for adversarial testing and safeguarding against attacks."]]],[]]