Fairness: Voreingenommenheit

Modelle für maschinelles Lernen sind nicht naturgemäß. Ingenieure trainieren Modelle, indem sie ihnen ein Dataset mit Trainingsbeispielen zur Verfügung stellen und die menschliche Beteiligung an der Bereitstellung und Auswahl dieser Daten dazu führen kann, dass die Vorhersagen eines Modells anfällig für Verzerrungen sind.

Beim Erstellen von Modellen ist es wichtig, die menschlichen Vorurteile zu berücksichtigen, die sich in deinen Daten bemerkbar machen. So kannst du proaktive Maßnahmen ergreifen, um die Auswirkungen dieser Modelle zu verringern.

Berichtsverzerrung

Eine Berichtsverzerrung tritt auf, wenn die in einem Datensatz erfasste Häufigkeit von Ereignissen, Properties und/oder Ergebnissen nicht der tatsächlichen Häufigkeit entspricht. Diese Verzerrung kann entstehen, da sich Menschen dazu neigen, sich auf ungewöhnliche oder besonders einprägsame Umstände zu konzentrieren, wenn der Normalzustand einfach nichts sagen kann.

Automatisierung

Bei der Automatisierungsverzerrung werden Ergebnisse, die von automatisierten Systemen generiert werden, gegenüber jenen bevorzugt, die von nicht automatisierten Systemen generiert werden, unabhängig von der jeweiligen Fehlerrate.

Auswahl-Bias

Die Auswahlverzerrung tritt auf, wenn die Beispiele für ein Dataset so gewählt werden, dass die tatsächliche Verteilung nicht widergespiegelt wird. Die Auswahlverzerrung kann viele verschiedene Formen annehmen:

  • Abdeckungsverzerrung: Die Daten werden nicht repräsentativ ausgewählt.
  • Verzerrung bei keiner Antwort (oder partielle Verzerrung): Daten sind aufgrund von Teilnahmelücken im Datenerfassungsprozess nicht repräsentativ.
  • Stichprobenverzerrung: Bei der Datenerfassung wird nicht die richtige Zufallsauswahl verwendet.

Gewichtung der Gruppenattribution

Die Gruppenattributionsverzerrung ist eine allgemeine Tendenz, die Personen einer gesamten Gruppe zu verallgemeinern, zu der sie gehören. Zwei wichtige Manifeste dieser Verzerrung sind:

  • In-Group Bias: Eine Einstellung für Mitglieder einer Gruppe, zu der Sie gehört auch, oder für Merkmale, die Sie ebenfalls teilen.
  • Out-group-Homogenitätsverzerrung: Die Tendenz, einzelne Mitglieder einer Gruppe zu Stereotype zu vereinen, zu denen Sie nicht gehören, oder ihre Eigenschaften als einheitlicher zu sehen.

Implizite Verzerrung

Implizite Verzerrungen treten auf, wenn Annahmen auf der Grundlage eigener psychischer Modelle und persönlicher Erfahrungen getroffen werden, die nicht unbedingt allgemein gelten.

Eine gängige Form der impliziten Verzerrung ist die Bestätigungsverzerrung, bei der Modell-Builder Daten unbewusst auf eine Weise verarbeiten, die bestehende Überzeugungen und Hypothesen bestätigt. In einigen Fällen trainiert ein Modell-Builder möglicherweise ein Modell so lange, bis es ein Ergebnis liefert, das der ursprünglichen Hypothese entspricht. Dies wird als Experimenter-Verzerrung bezeichnet.