सुरक्षित एआई फ़्रेमवर्क (एसएआईएफ़): सुरक्षित एआई सिस्टम के लिए कॉन्सेप्ट का फ़्रेमवर्क

एआई (AI) तेज़ी से आगे बढ़ रहा है. इसलिए, इसके साथ-साथ असरदार जोखिम प्रबंधन की रणनीतियां विकसित करना भी ज़रूरी है. सिक्योर एआई फ़्रेमवर्क (SAIF) एक ऐसा कॉन्सेप्ट है जो एआई (AI) सिस्टम को सुरक्षित बनाने में मदद करता है. इसे बेहतर बनाने में मदद की जाती है.

एआई (AI) की सुविधाएं, दुनिया भर के प्रॉडक्ट में धीरे-धीरे बढ़ती जा रही हैं. ऐसे में बोल्ड और ज़िम्मेदार फ़्रेमवर्क का पालन करना, और भी ज़्यादा ज़रूरी हो जाएगा.

एसएआईएफ़ को खास तौर पर एआई सिस्टम से जुड़े जोखिमों को कम करने के लिए बनाया गया है. जैसे, मॉडल की चोरी करना, ट्रेनिंग के डेटा में डेटा पॉइज़निंग, प्रॉम्प्ट इंजेक्शन से नुकसान पहुंचाने वाले इनपुट शामिल करना, और ट्रेनिंग डेटा में गोपनीय जानकारी निकालना.

एसएआईएफ़ फ़्रेमवर्क

SAIF में छह मुख्य चीज़ें हैं:

1. एआई (AI) नेटवर्क के लिए मज़बूत सुरक्षा सुविधाओं का दायरा बढ़ाएं

इसमें डिफ़ॉल्ट रूप से, सुरक्षित इन्फ़्रास्ट्रक्चर की सुरक्षा अपनाना और पिछले दो दशकों में बनाए गएएआई (AI) सिस्टम, ऐप्लिकेशन, और उपयोगकर्ताओं की सुरक्षा करना शामिल है. साथ ही, एआई (AI) में बदलावों के साथ तालमेल बनाए रखने और एआई (AI) के संदर्भ में इंफ़्रास्ट्रक्चर सुरक्षा में होने वाले बदलावों को स्केल और ऑप्टिमाइज़ करना शुरू करें. उदाहरण के लिए, एसक्यूएल इंजेक्शन जैसी इंजेक्शन की तकनीक कुछ समय से मौजूद है. संगठन, साफ़-सफ़ाई और सीमित करने जैसी समस्याओं को कम कर सकते हैं, ताकि इंजेक्ट किए जाने वाले इनपुट स्टाइल के हमलों से बचा जा सके.

2. संगठन की सुरक्षा के लिए, एआई (AI) का इस्तेमाल शुरू करने के लिए, चीज़ों की पहचान करने और उन्हें बेहतर बनाने में मदद करें

यह अहम है कि एआई (AI) से जुड़ी सायबर घटनाओं का पता लगाने और उन पर कार्रवाई करने के लिए समयावधि तय हो. साथ ही, किसी संगठन के लिए इंटेलिजेंस इंटेलिजेंस और अन्य सुविधाओं को बेहतर बनाना, दोनों के लिए कारगर साबित होता है. इसमें संगठनों के इनपुट और निगरानी वाले एआई सिस्टम के आउटपुट पर नज़र रखना शामिल है. इसकी मदद से, अनियमितताओं का पता लगाया जा सकता है और हमलों का अनुमान लगाने के लिए, खतरे वाली इंटेलिजेंस का इस्तेमाल किया जा सकता है. आम तौर पर, इस तरह के काम के लिए भरोसे और सुरक्षा के साथ मिलकर काम करने की ज़रूरत होती है, जो खतरे में पड़ सकते हैं और जिन लोगों के साथ बुरा बर्ताव किया जा सकता है.

3. मौजूदा और नए खतरों के साथ तेज़ी से काम करने के लिए, सुरक्षा को ऑटोमेट करें

एआई (AI) के नए इनोवेशन से, डेटा सुरक्षा से जुड़े मामलों में मदद पाने की कोशिशों को और बेहतर बनाया जा सकता है. विज्ञापन देने वाले लोग अपने असर को बढ़ाने के लिए, एआई (AI) का इस्तेमाल कर सकते हैं. इसलिए, एआई (AI) और इसकी नई और उभरती हुई क्षमताओं को इस्तेमाल करना ज़रूरी है. इनसे, उपयोगकर्ताओं को सुरक्षित रखने और लागत से बचने में मदद मिलेगी.

4. संगठन में हर जगह एक जैसी सुरक्षा के लिए प्लैटफ़ॉर्म लेवल के कंट्रोल तैयार करें

कंट्रोल फ़्रेमवर्क में लगातार बदलाव करने से, एआई (AI) के जोखिम कम करने में मदद मिल सकती है. साथ ही, इससे अलग-अलग प्लैटफ़ॉर्म और टूल पर, सुरक्षा से जुड़े तरीकों को बड़े पैमाने पर इस्तेमाल किया जा सकता है. इससे, यह पक्का किया जा सकता है कि सबसे बेहतर सुरक्षा, एआई (AI) ऐप्लिकेशन के लिए बड़े पैमाने पर और किफ़ायती तरीके से उपलब्ध हो. Google में, इस तरह के वीडियो को डिफ़ॉल्ट रूप से सुरक्षित रखने के लिए, Vertex AI और सिक्योरिटी एआई वर्कबेंच जैसे एआई प्लैटफ़ॉर्म के साथ-साथ सॉफ़्टवेयर डेवलपमेंट और लाइफ़साइकल में सुरक्षा कंट्रोल बनाना शामिल है. Perspective API का इस्तेमाल किन-किन चीज़ों के लिए किया जा सकता है, इससे कला की सुरक्षा से जुड़े संगठन को फ़ायदा मिल सकता है.

5. कंट्रोल में बदलाव करें और एआई (AI) डिप्लॉयमेंट के लिए तेज़ी से सुझाव देने वाले लूप बनाएं

लगातार सीखने के ज़रिए लागू करने की लगातार जांच से यह पक्का किया जा सकता है कि खतरे की पहचान करने वाले माहौल में हालात का पता लगाया जा सके और इस पर ध्यान दिया जा सके. इसमें घटनाओं और उपयोगकर्ता के सुझाव के आधार पर मज़बूत होने की ट्रेनिंग शामिल है. साथ ही, इसमें ट्रेनिंग डेटा सेट को अपडेट करने, हमलों का सामना करने के लिए मॉडल को बेहतर बनाने, और संदर्भ के तौर पर मॉडल को बनाने और इस्तेमाल करने वाले सॉफ़्टवेयर को अनुमति देने (उदाहरण के लिए, अनियमित व्यवहार का पता लगाने) के लिए इस्तेमाल किए गए सॉफ़्टवेयर शामिल हैं. संगठन, एआई (AI) से चलने वाले प्रॉडक्ट और क्षमताओं को सुरक्षित रखने के लिए, लाल टीम की कसरतें भी कर सकते हैं.

6. आस-पास की कारोबारी प्रक्रियाओं में एआई (AI) सिस्टम के जोखिमों के बारे में बताएं

आखिर में, एआई (AI) का इस्तेमाल करने वाले संगठन किस तरह से जोखिम की आशंका का आकलन करते हैं, यह फ़ैसला लेने में मदद मिल सकती है. इसमें शुरू से आखिर तक कारोबार के जोखिम का आकलन किया जाता है. जैसे, कुछ खास तरह के ऐप्लिकेशन के लिए डेटा वंशावली, पुष्टि, और ऑपरेशनल व्यवहार. इसके अलावा, संगठनों को एआई (AI) की परफ़ॉर्मेंस की पुष्टि करने के लिए, अपने-आप जांच होने वाली सुविधाएं बनानी चाहिए.

जानकारी पाने के दूसरे तरीके

एसएआईएफ़ को लागू करने के बारे में कारोबारी की गाइड. इस गाइड में बताया गया है कि एआई (AI) के मौजूदा या नए तरीकों की मदद से, SAIF की रणनीति कैसे तैयार की जा सकती है.

लाल टीम 'सुरक्षित एआई (AI) सिस्टम' में मदद करने में सहायता करने वाले संगठनों के लिए केंद्रीय भूमिका क्यों निभाती है: इस रिपोर्ट में एसआईएफ़ फ़्रेमवर्क को सपोर्ट करने वाली एक अहम क्षमता के बारे में बताया गया है: रेड टीमिंग. इसमें तीन अहम बातें शामिल हैं:

  1. रेड टीम क्या है और यह क्यों ज़रूरी है
  2. लाल टीमें किस तरह के हमलों को सिम्युलेट करती हैं
  3. दूसरों को जो सीखा है उसे हम दूसरों के साथ शेयर कर सकते हैं