Тримайте все під контролем за допомогою колекцій
Зберігайте контент і організовуйте його за категоріями відповідно до своїх потреб.
Коли модель оцінюють, показники, розраховані на основі всього набору даних для тестування чи перевірки, не завжди дають точне уявлення про її об’єктивність. Якщо модель загалом показує дуже гарні результати для більшості прикладів, це може маскувати низьку ефективність прогнозів для малої підмножини прикладів і, як наслідок, призвести до упередженості. Сукупні показники ефективності, як-от влучність, повнота й точність, не завжди допоможуть виявити ці проблеми.
Повернімося до моделі відбору кандидатів й розгляньмо кілька нових методів, які допоможуть оцінити її прогнози на упередженість з урахуванням принципу об’єктивності.
Припустімо, що класифікаційна модель відбору кандидатів відбирає для університету 20 зі 100 кандидатів, які належать до двох демографічних груп: групи більшості (синій колір, 80 студентів) і групи меншості (помаранчевий колір, 20 студентів).
Рисунок 1. Пул зі 100 кандидатів: 80 студентів належать до групи більшості (синій колір), а 20 – до групи меншості (помаранчевий).
Модель має відібрати кваліфікованих студентів у спосіб, справедливий для кандидатів з обох демографічних груп.
Як оцінити об’єктивність прогнозів моделі? Можна розглянути різні метрики, кожна з яких пропонує власне математичне визначення "справедливості". У наступних розділах ми детально розглянемо три показники об’єктивності: демографічну рівність, рівність можливостей і контрфактичну об’єктивність.
[[["Easy to understand","easyToUnderstand","thumb-up"],["Solved my problem","solvedMyProblem","thumb-up"],["Other","otherUp","thumb-up"]],[["Missing the information I need","missingTheInformationINeed","thumb-down"],["Too complicated / too many steps","tooComplicatedTooManySteps","thumb-down"],["Out of date","outOfDate","thumb-down"],["Translation issue","translationIssue","thumb-down"],["Проблема з кодом або зразками","samplesCodeIssue","thumb-down"],["Other","otherDown","thumb-down"]],["Останнє оновлення: 2025-04-22 (UTC)."],[[["Aggregate model performance metrics like precision, recall, and accuracy can hide biases against minority groups."],["Fairness in model evaluation involves ensuring equitable outcomes across different demographic groups."],["This page explores various fairness metrics, including demographic parity, equality of opportunity, and counterfactual fairness, to assess model predictions for bias."],["Evaluating model predictions with these metrics helps in identifying and mitigating potential biases that can negatively affect minority groups."],["The goal is to develop models that not only achieve good overall performance but also ensure fair treatment for all individuals, regardless of their demographic background."]]],[]]