تنظيم صفحاتك في مجموعات
يمكنك حفظ المحتوى وتصنيفه حسب إعداداتك المفضّلة.
تتناول الإنصاف النتائج المختلفة المحتملة التي قد يواجهها المستخدمون النهائيون
في ما يتعلق بالخصائص الحسّاسة، مثل العِرق أو الدخل أو الميول الجنسية
أو الجنس، من خلال اتخاذ القرارات المستندة إلى الخوارزميات. على سبيل المثال، هل يمكن أن يكون لدى خوارزمية التوظيف تحيّزات لصالح أو ضد المتقدّمين الذين تحمل أسماؤهم دلالات على جنس أو عرق معيّن؟
يمكنك الاطّلاع على مزيد من المعلومات حول مدى تأثّر أنظمة تعلُّم الآلة بالتحيّز البشري في هذا الفيديو:
للاطّلاع على مثال واقعي، يمكنك قراءة المزيد حول كيفية تحسين منتجات مثل "بحث Google" و"صور Google" للتنوّع في تمثيل درجات لون البشرة من خلال مقياس Monk Skin Tone.
تتوفّر طرق موثوقة لتحديد الانحياز وقياسه والحدّ منه في النماذج. يقدّم وحدة الإنصاف في دورة مكثّفة عن تعلّم الآلة نظرة معمّقة على الإنصاف وتقنيات الحدّ من التحيز.
تاريخ التعديل الأخير: 2025-07-27 (حسب التوقيت العالمي المتفَّق عليه)
[[["يسهُل فهم المحتوى.","easyToUnderstand","thumb-up"],["ساعَدني المحتوى في حلّ مشكلتي.","solvedMyProblem","thumb-up"],["غير ذلك","otherUp","thumb-up"]],[["لا يحتوي على المعلومات التي أحتاج إليها.","missingTheInformationINeed","thumb-down"],["الخطوات معقدة للغاية / كثيرة جدًا.","tooComplicatedTooManySteps","thumb-down"],["المحتوى قديم.","outOfDate","thumb-down"],["ثمة مشكلة في الترجمة.","translationIssue","thumb-down"],["مشكلة في العيّنات / التعليمات البرمجية","samplesCodeIssue","thumb-down"],["غير ذلك","otherDown","thumb-down"]],["تاريخ التعديل الأخير: 2025-07-27 (حسب التوقيت العالمي المتفَّق عليه)"],[[["Fairness in machine learning aims to address potential unequal outcomes for users based on sensitive attributes like race, gender, or income due to algorithmic decisions."],["Machine learning systems can inherit human biases, impacting outcomes for certain groups, and require strategies for identification, measurement, and mitigation."],["Google has worked on improving fairness in products like Google Search and Google Photos by utilizing the Monk Skin Tone Scale to better represent skin tone diversity."],["Developers can learn about fairness and bias mitigation techniques in detail through resources like the Fairness module of Google's Machine Learning Crash Course and interactive AI Explorables from People + AI Research (PAIR)."]]],[]]