Mit Sammlungen den Überblick behalten
Sie können Inhalte basierend auf Ihren Einstellungen speichern und kategorisieren.
Bei der Bewertung eines Modells werden Messwerte für den gesamten Test oder die gesamte Validierung berechnet.
geben nicht immer ein genaues
Bild davon, wie fair das Modell ist.
Die meisten Beispiele weisen eine gute Modellleistung auf.
nur bei einer geringen Anzahl von Beispielen, was zu verzerrten Ergebnissen führen kann.
Modellvorhersagen. Mit zusammengefassten Leistungsmesswerten wie
präzision,
Recall,
und Genauigkeit
um diese Probleme aufzudecken.
Wir können unser Zulassungsmodell noch einmal durchgehen und einige neue Techniken kennenlernen.
wie man seine Vorhersagen auf Verzerrungen und Fairness bewerten kann.
Angenommen, das Klassifizierungsmodell für die Zulassung wählt 20 Schüler aus, die zur Teilnahme
Universität aus einem Pool von 100 Bewerbern aus, die zwei demografischen Gruppen angehören:
die Mehrheitsgruppe (blaue, 80 Schüler/Studenten) und die Minderheitsgruppe
(Orange, 20 Schüler/Studenten).
Abbildung 1. Kandidatenpool von 100 Schülern: 80 Schüler/Studenten gehören zu
die Mehrheitsgruppe (blau) und 20 Schüler gehören der Minderheit an
(orange).
Bei dem Modell müssen qualifizierte Studenten auf eine Weise zugelassen werden, die den
für beide demografischen Gruppen geeignet ist.
Wie sollten wir die Vorhersagen des Modells auf Fairness bewerten? Es gibt eine Vielzahl von
von Metriken, die wir berücksichtigen können, die alle einen anderen mathematischen
der Definition von Fairness. In den folgenden Abschnitten werden drei der
diese Fairness-Messwerte genauer
ansehen: demografische Gleichheit, Chancengleichheit,
und kontrafaktische Fairness.
[[["Leicht verständlich","easyToUnderstand","thumb-up"],["Mein Problem wurde gelöst","solvedMyProblem","thumb-up"],["Sonstiges","otherUp","thumb-up"]],[["Benötigte Informationen nicht gefunden","missingTheInformationINeed","thumb-down"],["Zu umständlich/zu viele Schritte","tooComplicatedTooManySteps","thumb-down"],["Nicht mehr aktuell","outOfDate","thumb-down"],["Problem mit der Übersetzung","translationIssue","thumb-down"],["Problem mit Beispielen/Code","samplesCodeIssue","thumb-down"],["Sonstiges","otherDown","thumb-down"]],["Zuletzt aktualisiert: 2024-08-13 (UTC)."],[[["Aggregate model performance metrics like precision, recall, and accuracy can hide biases against minority groups."],["Fairness in model evaluation involves ensuring equitable outcomes across different demographic groups."],["This page explores various fairness metrics, including demographic parity, equality of opportunity, and counterfactual fairness, to assess model predictions for bias."],["Evaluating model predictions with these metrics helps in identifying and mitigating potential biases that can negatively affect minority groups."],["The goal is to develop models that not only achieve good overall performance but also ensure fair treatment for all individuals, regardless of their demographic background."]]],[]]