संग्रह की मदद से व्यवस्थित रहें
अपनी प्राथमिकताओं के आधार पर, कॉन्टेंट को सेव करें और कैटगरी में बांटें.
निष्पक्षता से यह पता चलता है कि एल्गोरिदम के फ़ैसले लेने की वजह से, असली उपयोगकर्ताओं को नस्ल, आय, यौन रुझान या लिंग जैसी संवेदनशील विशेषताओं से जुड़े अलग-अलग नतीजे मिल सकते हैं. उदाहरण के लिए, क्या ऐसा हो सकता है कि नौकरी देने के लिए इस्तेमाल किया जाने वाला कोई एल्गोरिदम, किसी खास लिंग या जातीयता से जुड़े नामों वाले आवेदकों के पक्ष या विपक्ष में काम करे?
इस वीडियो में, इस बारे में ज़्यादा जानें कि मशीन लर्निंग सिस्टम, इंसानों के पूर्वाग्रहों से कैसे प्रभावित हो सकते हैं:
असल दुनिया से जुड़े उदाहरण के लिए, इस बारे में पढ़ें कि Google Search और Google Photos जैसे प्रॉडक्ट ने मंक स्किन टोन स्केल की मदद से, स्किन टोन के प्रतिनिधित्व में विविधता को कैसे बेहतर बनाया.
मॉडल में फ़र्क़ का पता लगाने, उसे मेज़र करने, और उसे कम करने के भरोसेमंद तरीके मौजूद हैं. मशीन लर्निंग क्रैश कोर्स के निष्पक्षता मॉड्यूल में, निष्पक्षता और भेदभाव कम करने की तकनीकों के बारे में पूरी जानकारी दी गई है.
[[["समझने में आसान है","easyToUnderstand","thumb-up"],["मेरी समस्या हल हो गई","solvedMyProblem","thumb-up"],["अन्य","otherUp","thumb-up"]],[["वह जानकारी मौजूद नहीं है जो मुझे चाहिए","missingTheInformationINeed","thumb-down"],["बहुत मुश्किल है / बहुत सारे चरण हैं","tooComplicatedTooManySteps","thumb-down"],["पुराना","outOfDate","thumb-down"],["अनुवाद से जुड़ी समस्या","translationIssue","thumb-down"],["सैंपल / कोड से जुड़ी समस्या","samplesCodeIssue","thumb-down"],["अन्य","otherDown","thumb-down"]],["आखिरी बार 2025-07-27 (UTC) को अपडेट किया गया."],[[["Fairness in machine learning aims to address potential unequal outcomes for users based on sensitive attributes like race, gender, or income due to algorithmic decisions."],["Machine learning systems can inherit human biases, impacting outcomes for certain groups, and require strategies for identification, measurement, and mitigation."],["Google has worked on improving fairness in products like Google Search and Google Photos by utilizing the Monk Skin Tone Scale to better represent skin tone diversity."],["Developers can learn about fairness and bias mitigation techniques in detail through resources like the Fairness module of Google's Machine Learning Crash Course and interactive AI Explorables from People + AI Research (PAIR)."]]],[]]