संग्रह की मदद से व्यवस्थित रहें
अपनी प्राथमिकताओं के आधार पर, कॉन्टेंट को सेव करें और कैटगरी में बांटें.
एआई की सुरक्षा में, डिज़ाइन और ऑपरेशन से जुड़ी तकनीकों का एक सेट शामिल होता है. इनका इस्तेमाल करके, जान-बूझकर या अनजाने में होने वाली ऐसी कार्रवाइयों से बचा जा सकता है जिनसे नुकसान पहुंच सकता है.
उदाहरण के लिए, क्या सुरक्षा से जुड़ी किसी समस्या या टारगेट किए गए हमले के बावजूद, एआई सिस्टम सही तरीके से काम करते हैं? क्या एआई सिस्टम इतना मज़बूत है कि वह गड़बड़ी होने पर भी सुरक्षित तरीके से काम कर सके? जोखिम से बचने या उन्हें रोकने के लिए, आप पहले से क्या प्लान बनाते हैं? क्या एआई सिस्टम, दबाव में भरोसेमंद और स्थिर रहता है?
[[["समझने में आसान है","easyToUnderstand","thumb-up"],["मेरी समस्या हल हो गई","solvedMyProblem","thumb-up"],["अन्य","otherUp","thumb-up"]],[["वह जानकारी मौजूद नहीं है जो मुझे चाहिए","missingTheInformationINeed","thumb-down"],["बहुत मुश्किल है / बहुत सारे चरण हैं","tooComplicatedTooManySteps","thumb-down"],["पुराना","outOfDate","thumb-down"],["अनुवाद से जुड़ी समस्या","translationIssue","thumb-down"],["सैंपल / कोड से जुड़ी समस्या","samplesCodeIssue","thumb-down"],["अन्य","otherDown","thumb-down"]],["आखिरी बार 2025-07-27 (UTC) को अपडेट किया गया."],[[["AI safety encompasses design and operational techniques to prevent harm, ensuring AI systems behave as intended, even under pressure or attack."],["Adversarial testing is a key safety technique where AI systems are intentionally challenged with malicious or harmful input to assess their robustness."],["Google's Responsible AI Practices provide recommendations for protecting AI systems, including methods for adversarial testing and safeguarding against attacks."]]],[]]