Organiza tus páginas con colecciones
Guarda y categoriza el contenido según tus preferencias.
Cuando se evalúa un modelo, las métricas se calculan en comparación con una prueba o validación completa
no siempre brindan una imagen precisa
de cuán justo es el modelo.
En general, un buen rendimiento del modelo para la mayoría de los ejemplos puede enmascarar
en un subconjunto minoritario de ejemplos, lo que puede dar lugar
predicciones del modelo. Usar métricas de rendimiento agregadas, como
precisión,
recuperación,
y exactitud no necesariamente
para exponer estos problemas.
Podemos revisar nuestro modelo de admisiones y explorar algunas técnicas nuevas.
para evaluar sus predicciones de sesgo, teniendo en cuenta la equidad.
Supongamos que el modelo de clasificación de admisiones selecciona 20 estudiantes para admitir
universidad a partir de un conjunto de 100 candidatos, que pertenecen a dos grupos demográficos:
el grupo mayoritario (azul, 80 estudiantes) y el grupo minoritario
(naranja, 20 estudiantes).
Figura 1: Grupo de 100 estudiantes: 80 estudiantes pertenecen a
grupo mayoritario (azul), y 20 estudiantes pertenecen al grupo minoritario.
(naranja).
El modelo debe admitir a los estudiantes calificados de una manera justa para
candidatos en ambos grupos demográficos.
¿Cómo debemos evaluar las predicciones del modelo en cuanto a la equidad? Hay una gran variedad
de métricas que podemos considerar, cada una de las cuales proporciona una definición
definición de "equidad". En las siguientes secciones, exploraremos
estas métricas de equidad: paridad demográfica, igualdad de oportunidades,
y equidad contrafáctica.
[[["Fácil de comprender","easyToUnderstand","thumb-up"],["Resolvió mi problema","solvedMyProblem","thumb-up"],["Otro","otherUp","thumb-up"]],[["Falta la información que necesito","missingTheInformationINeed","thumb-down"],["Muy complicado o demasiados pasos","tooComplicatedTooManySteps","thumb-down"],["Desactualizado","outOfDate","thumb-down"],["Problema de traducción","translationIssue","thumb-down"],["Problema con las muestras o los códigos","samplesCodeIssue","thumb-down"],["Otro","otherDown","thumb-down"]],["Última actualización: 2024-08-13 (UTC)"],[[["Aggregate model performance metrics like precision, recall, and accuracy can hide biases against minority groups."],["Fairness in model evaluation involves ensuring equitable outcomes across different demographic groups."],["This page explores various fairness metrics, including demographic parity, equality of opportunity, and counterfactual fairness, to assess model predictions for bias."],["Evaluating model predictions with these metrics helps in identifying and mitigating potential biases that can negatively affect minority groups."],["The goal is to develop models that not only achieve good overall performance but also ensure fair treatment for all individuals, regardless of their demographic background."]]],[]]