AI 안전에는 의도적이든 의도적이지 않든 해를 끼칠 수 있는 행위를 방지하고 억제하기 위해 따라야 하는 설계 및 운영 기법이 포함됩니다.
예를 들어 보안 침해 또는 타겟팅된 공격이 있더라도 AI 시스템이 의도한 대로 작동하나요? AI 시스템은 교란이 발생해도 안전하게 작동할 만큼 견고한가요? 위험을 방지하거나 피하기 위해 미리 계획하는 방법 AI 시스템이 스트레스를 받더라도 안정적이고 신뢰할 수 있나요?
[[["이해하기 쉬움","easyToUnderstand","thumb-up"],["문제가 해결됨","solvedMyProblem","thumb-up"],["기타","otherUp","thumb-up"]],[["필요한 정보가 없음","missingTheInformationINeed","thumb-down"],["너무 복잡함/단계 수가 너무 많음","tooComplicatedTooManySteps","thumb-down"],["오래됨","outOfDate","thumb-down"],["번역 문제","translationIssue","thumb-down"],["샘플/코드 문제","samplesCodeIssue","thumb-down"],["기타","otherDown","thumb-down"]],["최종 업데이트: 2025-07-27(UTC)"],[[["AI safety encompasses design and operational techniques to prevent harm, ensuring AI systems behave as intended, even under pressure or attack."],["Adversarial testing is a key safety technique where AI systems are intentionally challenged with malicious or harmful input to assess their robustness."],["Google's Responsible AI Practices provide recommendations for protecting AI systems, including methods for adversarial testing and safeguarding against attacks."]]],[]]