Fairness

Um ein ML-Modell verantwortungsvoll zu bewerten, muss mehr getan werden, als nur Verlustmesswerte zu berechnen. Bevor Sie ein Modell in die Produktion aufnehmen, ist es wichtig, Trainingsdaten zu prüfen und Vorhersagen auf Verzerrungen zu bewerten.

In diesem Modul werden verschiedene Arten von menschlichen Vorurteilen untersucht, die sich in Trainingsdaten auswirken können. Anschließend werden Strategien zur Identifizierung und Bewertung der Auswirkungen vorgestellt.

Fairness

Mehrere Bananen in einem Regal in einem Geschäft
  • Bananen
Mehrere Bananen
  • Bananen
  • Sticker
Mehrere Bananen
  • Bananen
  • Sticker
  • Bananen in Regalen
Mehrere Bananen
  • Grün Bananen
  • Unreife Bananen
Eine Reihe grüner Bananen
  • Überreife Bananen
  • Gut für Bananenbrot
Braune Bananen

Gelb Bananen

Gelb ist typisch für Bananen.

Eine Reihe gelber Bananen
Diagramm, das einen typischen Workflow für maschinelles Lernen veranschaulicht: Daten erfassen, Modell trainieren und Ausgabe erstellen
Diagramm mit zwei Arten von Verzerrungen in Daten: menschliche Verzerrungen, die sich in Daten bemerkbar machen (z. B. Gruppenhomogenitätsverzerrung) und menschliche Verzerrungen, die sich auf die Datenerhebung und Annotation auswirken (z. B. Bestätigungsverzerrung)
  1. Problem berücksichtigen
  1. Problem berücksichtigen
  2. Experten fragen
  1. Problem berücksichtigen
  2. Experten fragen
  3. Modelle zur Berücksichtigung von Verzerrung trainieren
  1. Problem berücksichtigen
  2. Experten fragen
  3. Modelle zur Berücksichtigung von Verzerrung trainieren
  4. Ergebnisse interpretieren
  1. Problem berücksichtigen
  2. Experten fragen
  3. Modelle zur Berücksichtigung von Verzerrung trainieren
  4. Ergebnisse interpretieren
  5. Mit Kontext veröffentlichen