Restez organisé à l'aide des collections
Enregistrez et classez les contenus selon vos préférences.
Lors de l'évaluation d'un modèle, les métriques sont calculées par rapport à l'ensemble d'un test ou d'une validation.
ne donnent pas toujours une idée précise
de l'équité du modèle.
Pour la majorité des exemples, des performances globales du modèle élevées peuvent
sur un sous-ensemble minoritaire d'exemples, ce qui peut fausser
les prédictions du modèle. L'utilisation de métriques
de performances agrégées,
précision,
rappel,
et la justesse ne va pas forcément
pour exposer ces problèmes.
Nous pouvons revoir notre modèle d'admission et explorer de nouvelles techniques
pour évaluer la présence de biais dans ses prédictions, en gardant à l'esprit l'impartialité.
Supposons que le modèle de classification des admissions sélectionne 20 étudiants à admettre au
université dans un vivier de 100 candidats, appartenant à deux groupes démographiques:
le groupe majoritaire (80 élèves bleus) et le groupe minoritaire
(orange, 20 élèves).
Image 1. Pool de 100 étudiants: 80 élèves appartiennent
le groupe majoritaire (bleu), et 20 élèves font partie du groupe minoritaire
(orange).
Le modèle doit accepter les étudiants qualifiés d'une manière qui respecte
des candidats appartenant aux deux groupes démographiques.
Comment évaluer l'équité des prédictions du modèle ? Il existe de nombreuses
de métriques à prendre en compte, chacune étant associée à une approche mathématique
définition de l’« impartialité ». Dans les sections suivantes, nous allons examiner trois
ces métriques d'équité en profondeur: parité démographique, égalité des chances,
et l'impartialité contrefactuelle.
Sauf indication contraire, le contenu de cette page est régi par une licence Creative Commons Attribution 4.0, et les échantillons de code sont régis par une licence Apache 2.0. Pour en savoir plus, consultez les Règles du site Google Developers. Java est une marque déposée d'Oracle et/ou de ses sociétés affiliées.
Dernière mise à jour le 2024/08/13 (UTC).
[[["Facile à comprendre","easyToUnderstand","thumb-up"],["J'ai pu résoudre mon problème","solvedMyProblem","thumb-up"],["Autre","otherUp","thumb-up"]],[["Il n'y a pas l'information dont j'ai besoin","missingTheInformationINeed","thumb-down"],["Trop compliqué/Trop d'étapes","tooComplicatedTooManySteps","thumb-down"],["Obsolète","outOfDate","thumb-down"],["Problème de traduction","translationIssue","thumb-down"],["Mauvais exemple/Erreur de code","samplesCodeIssue","thumb-down"],["Autre","otherDown","thumb-down"]],["Dernière mise à jour le 2024/08/13 (UTC)."],[[["Aggregate model performance metrics like precision, recall, and accuracy can hide biases against minority groups."],["Fairness in model evaluation involves ensuring equitable outcomes across different demographic groups."],["This page explores various fairness metrics, including demographic parity, equality of opportunity, and counterfactual fairness, to assess model predictions for bias."],["Evaluating model predictions with these metrics helps in identifying and mitigating potential biases that can negatively affect minority groups."],["The goal is to develop models that not only achieve good overall performance but also ensure fair treatment for all individuals, regardless of their demographic background."]]],[]]