AI の安全性には、意図的または意図的でない損害を引き起こす可能性のあるアクションを回避し、抑制するために従うべき一連の設計手法と運用手法が含まれます。たとえば、セキュリティ侵害や標的型攻撃が発生した場合でも、AI システムは意図したとおりに動作しますか?AI システムは、変化があっても安全に動作できるほど堅牢ですか?リスクを回避または防止するために、事前にどのように計画していますか?AI システムは負荷がかかっても信頼性が高く安定しているか
[[["わかりやすい","easyToUnderstand","thumb-up"],["問題の解決に役立った","solvedMyProblem","thumb-up"],["その他","otherUp","thumb-up"]],[["必要な情報がない","missingTheInformationINeed","thumb-down"],["複雑すぎる / 手順が多すぎる","tooComplicatedTooManySteps","thumb-down"],["最新ではない","outOfDate","thumb-down"],["翻訳に関する問題","translationIssue","thumb-down"],["サンプル / コードに問題がある","samplesCodeIssue","thumb-down"],["その他","otherDown","thumb-down"]],["最終更新日 2025-07-27 UTC。"],[[["AI safety encompasses design and operational techniques to prevent harm, ensuring AI systems behave as intended, even under pressure or attack."],["Adversarial testing is a key safety technique where AI systems are intentionally challenged with malicious or harmful input to assess their robustness."],["Google's Responsible AI Practices provide recommendations for protecting AI systems, including methods for adversarial testing and safeguarding against attacks."]]],[]]