Mantenha tudo organizado com as coleções
Salve e categorize o conteúdo com base nas suas preferências.
Ao avaliar um modelo, as métricas são calculadas com base em todo um teste ou validação
Esse conjunto nem sempre oferece uma imagem precisa de quão justo o modelo é.
Um bom desempenho geral do modelo para a maioria dos exemplos pode mascarar um
desempenho em um subconjunto de uma minoria de exemplos, o que pode resultar
previsões do modelo. O uso de métricas de desempenho agregadas, como
precisão,
recall,
e acurácia não significa necessariamente que
para expor esses problemas.
Podemos revisitar nosso modelo de admissão e explorar algumas novas técnicas
para saber como avaliar as previsões quanto ao viés, tendo a imparcialidade em mente.
Suponha que o modelo de classificação de admissões selecione 20 alunos para admitir no
universitária de um conjunto de 100 candidatos, que pertencem a dois grupos demográficos:
o grupo majoritário (azul, 80 alunos) e o grupo minoritário
(laranja, 20 alunos).
Figura 1. Grupo de candidatos de 100 alunos: 80 alunos pertencem
o grupo majoritário (azul) e 20 alunos pertencem ao grupo minoritário
(laranja).
O modelo deve permitir alunos qualificados de uma maneira que seja justa para com os
candidatos em ambos os grupos demográficos.
Como devemos avaliar as previsões do modelo quanto à imparcialidade? Há uma variedade
de métricas que podemos considerar, cada uma fornecendo uma métrica matemática diferente
definição de "imparcialidade". Nas seções a seguir, vamos conhecer três
métricas de imparcialidade em profundidade: paridade demográfica, igualdade de oportunidade,
e contrafactual com a imparcialidade.
[[["Fácil de entender","easyToUnderstand","thumb-up"],["Meu problema foi resolvido","solvedMyProblem","thumb-up"],["Outro","otherUp","thumb-up"]],[["Não contém as informações de que eu preciso","missingTheInformationINeed","thumb-down"],["Muito complicado / etapas demais","tooComplicatedTooManySteps","thumb-down"],["Desatualizado","outOfDate","thumb-down"],["Problema na tradução","translationIssue","thumb-down"],["Problema com as amostras / o código","samplesCodeIssue","thumb-down"],["Outro","otherDown","thumb-down"]],["Última atualização 2024-08-13 UTC."],[[["Aggregate model performance metrics like precision, recall, and accuracy can hide biases against minority groups."],["Fairness in model evaluation involves ensuring equitable outcomes across different demographic groups."],["This page explores various fairness metrics, including demographic parity, equality of opportunity, and counterfactual fairness, to assess model predictions for bias."],["Evaluating model predictions with these metrics helps in identifying and mitigating potential biases that can negatively affect minority groups."],["The goal is to develop models that not only achieve good overall performance but also ensure fair treatment for all individuals, regardless of their demographic background."]]],[]]