العدالة

تتناول الإنصاف النتائج المختلفة المحتملة التي قد يواجهها المستخدمون النهائيون في ما يتعلق بالخصائص الحسّاسة، مثل العِرق أو الدخل أو الميول الجنسية أو الجنس، من خلال اتخاذ القرارات المستندة إلى الخوارزميات. على سبيل المثال، هل يمكن أن يكون لدى خوارزمية التوظيف تحيّزات لصالح أو ضد المتقدّمين الذين تحمل أسماؤهم دلالات على جنس أو عرق معيّن؟

يمكنك الاطّلاع على مزيد من المعلومات حول مدى تأثّر أنظمة تعلُّم الآلة بالتحيّز البشري في هذا الفيديو:

للاطّلاع على مثال واقعي، يمكنك قراءة المزيد حول كيفية تحسين منتجات مثل "بحث Google" و"صور Google" للتنوّع في تمثيل درجات لون البشرة من خلال مقياس Monk Skin Tone.

تتوفّر طرق موثوقة لتحديد الانحياز وقياسه والحدّ منه في النماذج. يقدّم وحدة الإنصاف في دورة مكثّفة عن تعلّم الآلة نظرة معمّقة على الإنصاف وتقنيات الحدّ من التحيز.

يقدّم فريق People + AI Research (PAIR) تجارب تفاعلية في الذكاء الاصطناعي على Measuring Fairness وHidden Bias لشرح هذه المفاهيم. للاطّلاع على المزيد من المصطلحات ذات الصلة بمفهوم العدالة في تعلُّم الآلة، يُرجى الانتقال إلى مسرد مصطلحات تعلُّم الآلة: العدالة | Google for Developers.