Zusammenfassung

Fairness ist kein einmaliges Ziel, sondern ein fortlaufender Versuch. In diesem Artikel erfahren Sie mehr über die weitere Arbeit von Jigsaw zur Verzerrung der Perspective API-Modelle.

Weitere Informationen zur ML-Fairness

Weiterführende Informationen zu ML-Fairness
In diesem einstündigen Selbststudium werden die grundlegenden Konzepte von ML-Fairness vorgestellt. Dazu gehören gängige Quellen von Verzerrungen, die Ermittlung von Verzerrungen in Daten und die Bewertung von Modellvorhersagen unter Berücksichtigung von Fairness.
Das ML-Glossar enthält über 30 Einträge für Fairness im ML-Bereich, die unter anderem für Anfänger geeignete Definitionen, Beispiele für häufige Verzerrungen und wichtige Messwerte zur Fairness-Bewertung enthalten.

Fairness in die ML-Workflows einbinden

Die folgenden Tools verwenden, um Verzerrungen in ML-Modellen zu erkennen und zu beheben
Fairness-Indikatoren sind ein Visualisierungstool, das auf dem TensorFlow Model Analysis (TFMA) basiert. Dieses Tool wertet die Modellleistung in verschiedenen Untergruppen aus und zeichnet dann die Ergebnisse für eine Reihe von beliebten Messwerten auf, darunter die Rate falsch positiver Ergebnisse, die Rate falsch negativer Ergebnisse, die Genauigkeit und die Trefferquote.
Das What-If-Tool ist eine interaktive visuelle Benutzeroberfläche, mit der Sie Ihre Modelle besser untersuchen können. Untersuchen Sie die Modellleistung für eine Reihe von Merkmalen in Ihrem Dataset mithilfe verschiedener Optimierungsstrategien und untersuchen Sie die Auswirkungen der Bearbeitung einzelner Datenpunktwerte.