Glossar zum maschinellen Lernen: Fairness

Diese Seite enthält Glossarbegriffe zu Fairness. Alle Glossarbegriffe finden Sie hier.

A

Attribut

#fairness

Synonym für feature.

Bei Fairness in Bezug auf maschinelles Lernen beziehen sich Merkmale häufig auf Eigenschaften, die sich auf Einzelpersonen beziehen.

Automatisierungsverzerrung

#fairness

Wenn ein menschlicher Entscheidungsträger Empfehlungen eines automatisierten Entscheidungssystems gegenüber Informationen bevorzugt, die ohne Automatisierung gemacht wurden, selbst wenn das automatisierte Entscheidungssystem Fehler macht

B

Verzerrung (Ethik/Fairness)

#fairness
#fundamentals

1. Stereotypisierung, Vorurteile oder Bevorzugung gegenüber bestimmten Dingen, Personen oder Gruppen gegenüber anderen. Diese Verzerrungen können sich auf die Erfassung und Interpretation von Daten, das Design eines Systems und die Interaktion der Nutzer mit einem System auswirken. Zu dieser Art von Verzerrung gehören:

2. Systematischer Fehler, der durch ein Stichproben- oder Berichterstellungsverfahren eingeführt wurde. Zu dieser Art von Verzerrung gehören:

Nicht zu verwechseln mit dem Verzerrungsbegriff in ML-Modellen oder der Vorhersageverzerrung.

C

Bestätigungsverzerrung

#fairness

Die Tendenz, nach Informationen zu suchen, zu interpretieren, zu bevorzugen und zurückzuhalten, um die bestehenden Überzeugungen oder Hypothesen zu bestätigen. Entwickler von Machine Learning können Daten versehentlich so erfassen oder mit Labels versehen, dass sie sich auf ein Ergebnis auswirken, das ihre bestehenden Überzeugungen unterstützt. Die Bias-Bestätigung ist eine Form der impliziten Verzerrung.

Die Verzerrung des Experimentators ist eine Form der Verzerrung bei der Bestätigung, bei der ein Experimenter Modelle weiter trainiert, bis eine vorhandene Hypothese bestätigt wurde.

kontrafaktische Fairness

#fairness
Ein Rechtsmesswert, mit dem geprüft wird, ob ein Klassifikator dasselbe Ergebnis für eine Einzelperson wie für eine andere Person erzeugt, der mit dem ersten identisch ist, mit Ausnahme eines oder mehrerer sensibler Attribute. Die Bewertung eines Klassifikators für kontrafaktische Fairness ist eine Methode, um potenzielle Quellen von Verzerrungen in einem Modell darzustellen.

Eine ausführlichere Diskussion über eine kontrafaktische Fairness finden Sie unter If Worlds Collide: Integrations Counterfactual Annahmen in Fairness.

Abdeckungsverzerrung

#fairness

Siehe Auswahlverzerrung.

D

demografische Merkmale

#fairness

Ein Fairness-Messwert, der erfüllt wird, wenn die Ergebnisse der Klassifizierung eines Modells nicht von einem bestimmten sensiblen Attribut abhängen.

Wenn beispielsweise für die Universität in Glubbdubdrib sowohl Lilliputiane als auch Brobdingnagians gelten, wird die demografische Einheitlichkeit erreicht, wenn der Prozentsatz der zugelassenen Lilliputianer dem Prozentsatz der zugelassenen Brobdingnagians entspricht, unabhängig davon, ob eine Gruppe durchschnittlich qualifizierter ist als die andere.

Im Gegensatz dazu zu eignen Chancen und zur Gleichheit der Chancen, bei denen die Klassifizierungsergebnisse insgesamt von sensiblen Attributen abhängen, die Klassifizierung von bestimmten Ground-Truth-Labels jedoch nicht von sensiblen Attributen erlaubt sind. Unter „Diskriminierung durch intelligentes maschinelles Lernen bekämpfen“ finden Sie eine Darstellung, die die Nachteile bei der Optimierung für demografische Merkmale aufzeigt.

unterschiedliche Auswirkungen

#fairness

Entscheidungen über Personen treffen, die unverhältnismäßig viele Bevölkerungsuntergruppen betreffen. Dies bezieht sich in der Regel auf Situationen, in denen ein algorithmischer Entscheidungsprozess einige Untergruppen stärker schädigt oder davon profitiert.

Angenommen, ein Algorithmus, der feststellt, ob ein Lilliputian für ein Mini-Wohngebäudekredit infrage kommt, stuft die Wahrscheinlichkeit als „unzulässig“ ein, wenn seine Postanschrift eine bestimmte Postleitzahl enthält. Wenn Big-Endian-Lilliputier eher Postadressen mit dieser Postleitzahl als Little-Endian-Lilliputier haben, kann dies zu unterschiedlichen Auswirkungen führen.

Dies steht im Gegensatz zur unterschiedlichen Behandlung, bei der es zu Abweichungen kommt, die entstehen, wenn Untergruppen explizite Merkmale für einen algorithmischen Entscheidungsprozess enthalten.

unterschiedliche Behandlung

#fairness

Die sensiblen Attribute der Testpersonen werden in einem algorithmischen Entscheidungsprozess berücksichtigt, sodass verschiedene Untergruppen von Menschen unterschiedlich behandelt werden.

Nehmen wir zum Beispiel einen Algorithmus, der anhand der Daten, die in seinem Kreditantrag angegeben werden, ermittelt, ob die Lilliputians Anspruch auf ein Mini-Haus haben. Wenn im Algorithmus die Zugehörigkeit zu Lilliputian als Big-Endian oder Little-Endian als Eingabe verwendet wird, führt dies zu unterschiedlichen Ergebnissen.

Dies steht im Gegensatz zu unterschiedlichen Auswirkungen. Hier geht es um Ungleichheiten in den gesellschaftlichen Auswirkungen von algorithmischen Entscheidungen auf Untergruppen, unabhängig davon, ob diese Untergruppen für das Modell relevant sind.

E

Chancengleichheit

#fairness
Ein Fairness-Messwert, mit dem geprüft wird, ob für ein bevorzugtes Label, das einem Nutzer einen Vorteil oder eine Vorteil bringt, und für ein bestimmtes Attribut ein Bevorzugtes Label gleichermaßen für alle Werte dieses Attributs gut geeignet ist. Anders ausgedrückt: Gleichheit der Chancengleichheit misst, ob die Personen, die sich für eine Chance qualifizieren, die Wahrscheinlichkeit auch unabhängig von ihrer Gruppenmitgliedschaft erfüllen müssen.

Angenommen, die Universität Glubbdubdrib gibt sowohl Lilliputians als auch Brobdingnagians ein strenges mathematisches Programm zu. Die weiterführenden Schulen der Lilliputians bieten einen soliden Mathematiklehrplan und die große Mehrheit der Studenten ist für das Universitätsprogramm qualifiziert. Die weiterführenden Schulen von Brobdingnagians bieten überhaupt keine Mathematikkurse an. So sind deutlich weniger Schüler qualifiziert. Die Chancengleichheit wird für das bevorzugte Label „zugelassen“ im Hinblick auf die Nationalität (Lilliputian oder Brobdingnagian) eingehalten, wenn berechtigte Studenten unabhängig davon, ob sie Lilliputian oder Brobdingnagian sind, zugelassen werden.

Beispiel: Für die Universität Glubbdubdrib werden 100 Lilliputiere und 100 Bobdingnagians angewendet. Die Zulassungsentscheidungen erfolgen so:

Tabelle 1. Lilliputische Bewerber (90% sind qualifiziert)

  Qualifiziert Unqualifiziert
Zugelassen 45 3
Abgelehnt 45 7
Gesamt 90 10
Prozentsatz zugelassener Schüler/Studenten: 45/90 = 50%
Prozentsatz der nicht qualifizierten Schüler/Studenten abgelehnt: 7/10 = 70%
Gesamtzahl der zugelassenen schulischen Schüler: (45 + 3)/100 = 48%

 

Tabelle 2 Brobdingnagische Bewerber (10% sind qualifiziert):

  Qualifiziert Unqualifiziert
Zugelassen 5 9
Abgelehnt 5 81
Gesamt 10 90
Prozentsatz zugelassener Schüler/Studenten: 5/10 = 50%
Prozentsatz der nicht qualifizierten Schüler/Studenten abgelehnt: 81/90 = 90%
Gesamtzahl der zugelassenen Schüler/Studenten in Brobdingnag: (5+9)/100 = 14%

Die vorherigen Beispiele erfüllen die Chancengleichheit qualifizierter Studenten, da qualifizierte Lilliputians und Brobdingnagians jeweils 50% Zulassung haben.

Ausführliche Informationen zur Chancengleichheit finden Sie unter Chancengleichheit im Rahmen des überwachten Lernens. Unter „Mit einem intelligenten Machine Learning gegen Diskriminierung vorgehen“ erfahren Sie außerdem, wie Sie bei der Optimierung auf Chancengleichheit Kompromisse eingehen können.

gleichseitige Wahrscheinlichkeit

#fairness
Ein Fairness-Messwert, der prüft, ob ein Klassifikator das Label für ein bestimmtes Label oder Attribut bei allen Werten dieses Attributs gleich gut vorhersagt.

Angenommen, die Glubbdubdrib-Universität gibt sowohl Lilliputians als auch Bruobdingnagians ein strenges mathematisches Programm zu. An den weiterführenden Schulen der Lilliputian-Universität sind die Mathematikkurse sehr solide aufgebaut. Die überwiegende Mehrheit der Studenten ist für das Universitätsprogramm qualifiziert. Die Sekundarschulen von Brobdingnagians bieten überhaupt keine Mathematikkurse an und so sind deutlich weniger Schüler qualifiziert. Chancengleichheiten werden erfüllt, mit der Annahme, dass es keine Rolle spielt, ob ein Bewerber ein Lilliputian oder ein Brobdingnagian ist, wenn er qualifiziert ist, dass er genauso hoch in das Programm aufgenommen wird, und wenn er nicht qualifiziert ist, wird es ebenfalls wahrscheinlich, dass er abgelehnt wird.

Beispiel: Für die Glubbdubdrib-Universität gelten 100 Lilliputier und 100 Bobdingnagier. Die Zulassungen werden folgendermaßen getroffen:

Tabelle 3 Lilliputische Bewerber (90% sind qualifiziert)

  Qualifiziert Unqualifiziert
Zugelassen 45 2
Abgelehnt 45 8
Gesamt 90 10
Prozentsatz zugelassener Schüler/Studenten: 45/90 = 50%
Prozentsatz der abgelehnten Lernenden: 8/10 = 80%
Gesamtzahl der zugelassenen schulischen Schüler: (45 + 2) ÷ 100 = 47%

 

Tabelle 4 Brobdingnagische Bewerber (10% sind qualifiziert):

  Qualifiziert Unqualifiziert
Zugelassen 5 18
Abgelehnt 5 72
Gesamt 10 90
Prozentsatz zugelassener Schüler/Studenten: 5/10 = 50%
Prozentsatz der nicht qualifizierten Schüler/Studenten abgelehnt: 72/90 = 80%
Gesamtzahl der zugelassenen Schüler/Studenten in Brobdingnag: (5+18)/100 = 23%

Die Chancen für eine ausgeglichene Position sind erfüllt, da qualifizierte Lilliputian- und Brobdingnagian-Schüler eine Wahrscheinlichkeit von 50% haben und für unqualifizierte Lilliputian und Brobdingnagian 80% abgelehnt werden.

Die gleichmäßige Wahrscheinlichkeit wird unter Gleichheit der Chancen im überwachten Lernen folgendermaßen definiert: „Vorhersag Ŷ entspricht den gleichen Chancen in Bezug auf das geschützte Attribut A und Ergebnis Y, wenn Ŷ und A unabhängig und bedingt sind.“

Experimente Bias

#fairness

Siehe Bestätigungsverzerrung.

F

Fairness-Einschränkung

#fairness
Eine Einschränkung auf einen Algorithmus anwenden, damit eine oder mehrere Definitionen der Fairness erfüllt werden Beispiele für Fairness-Einschränkungen:

Fairness-Messwert

#fairness

Eine mathematische Definition von „Fairness“, die messbar ist. Zu den häufig verwendeten Messwerten zur Fairness gehören:

Viele Messwerte zur Fairness schließen sich gegenseitig aus. Inkompatibilität von Fairness-Messwerten

G

Gruppenzuordnungsverzerrung

#fairness

Annahmen, dass das, was für einen einzelnen Nutzer zutrifft, auch für alle in der Gruppe gilt. Die Auswirkungen von Verzerrungen bei der Gruppenattribution können noch verstärkt werden, wenn eine Stichprobenerhebung für die Datenerhebung verwendet wird. In einer nicht repräsentativen Stichprobe können Quellenangaben vorgenommen werden, die die Realität nicht widerspiegeln.

Siehe auch Homogenitätsverzerrung innerhalb der Gruppe und Verzerrung innerhalb der Gruppe.

I

implizite Verzerrung

#fairness

Es wird automatisch eine Verknüpfung oder Annahme anhand der mentalen Modelle und Erinnerungen erstellt. Eine implizite Verzerrung kann sich auf Folgendes auswirken:

  • Wie werden Daten erhoben und klassifiziert?
  • Wie Systeme für maschinelles Lernen entworfen und entwickelt werden

Beispielsweise kann ein Entwickler bei der Erstellung eines Klassifikators für Hochzeitsfotos als Merkmal ein weißes Kleid in einem Foto verwenden. Weiße Kleider sind jedoch nur in bestimmten Epochen und in bestimmten Kulturen üblich.

Siehe auch Bestätigungsverzerrung.

Inkompatibilität der Messwerte zur Fairness

#fairness

Die Grundsätze, dass einige Fairness-Konzepte sich gegenseitig nicht miteinander verbinden, können nicht gleichzeitig erfüllt werden. Daher gibt es keinen einzigen universellen Messwert für die Bestimmung der Fairness, der auf alle ML-Probleme angewendet werden kann.

Dies mag zwar entmutigend erscheinen, aber eine Inkompatibilität der Fairness-Messwerte deutet nicht darauf hin, dass Fairness-Anstrengungen fruchtbar sind. Stattdessen muss die Fairness für ein bestimmtes ML-Problem kontextbezogen definiert werden, mit dem Ziel, Schaden speziell für seine Anwendungsfälle zu vermeiden.

Eine ausführliche Diskussion zu diesem Thema finden Sie unter Möglichkeit der Fairness.

Individuelle Fairness

#fairness

Ein Fairness-Messwert, mit dem geprüft wird, ob ähnliche Personen ähnlich klassifiziert werden. Beispielsweise könnte die Brobdingnagian Academy die individuelle Fairness erfüllen, indem sie sicherstellt, dass zwei Studenten mit identischen Noten und standardisierten Prüfungsergebnissen mit gleicher Wahrscheinlichkeit Zulassung erhalten.

Beachten Sie, dass eine faire Fairness davon abhängt, wie Sie die „Ähnlichkeit“ definieren (in diesem Fall Noten und Prüfungsergebnisse). Wenn sich bei Ihrem Ähnlichkeitsmesswert wichtige Informationen übersehen, können Sie auch Risiken bergen, z. B. die Struktur des Schülers oder Lehrplans.

Weitere Details zur individuellen Fairness finden Sie unter Fairness Through Bekanntheit.

In-Group-Bias

#fairness

Zeigt die Teilhabe an der eigenen Gruppe oder den eigenen Merkmalen Wenn Tester oder Evaluatoren aus den Freunden, der Familie oder den Kollegen des ML-Entwicklers bestehen, kann die Verzerrung innerhalb der Gruppe dazu führen, dass Produkttests oder das Dataset ungültig werden.

„In-Group Bias“ ist eine Form der Gruppenzuordnungsverzerrung. Siehe auch Homogenitätsverzerrung für eine Gruppe.

N

verzerrungsfreie Verzerrung

#fairness

Siehe Auswahlverzerrung.

O

Homogenitätsverzerrung innerhalb der Gruppe

#fairness

Die Tendenz, Out-Group-Mitglieder mehr als Mitglieder innerhalb einer Gruppe zu sehen, wenn sie Einstellungen, Werte, Persönlichkeitsmerkmale und andere Eigenschaften vergleichen In-Group bezieht sich auf Personen, mit denen Sie regelmäßig interagieren, und Out-Group bezieht sich auf Personen, mit denen Sie nicht regelmäßig interagieren. Wenn Sie ein Dataset erstellen und Nutzer bitten, Attribute zu Gruppen anzugeben, sind diese Attribute möglicherweise weniger differenziert und stereotyper als Attribute, die von den Teilnehmern in der Gruppe aufgelistet werden.

So können Lilliputians Häuser anderer Lilliputier beispielsweise sehr detailliert beschreiben und dabei kleine, unterschiedliche architektonische Stile, Fenster, Türen und Größen zitieren. Es kann jedoch sein, dass dieselben Lilliputier einfach nur angeben, dass alle Brugnaten in identischen Häusern leben.

„Homogenity Bias“ ist eine Form der Gruppenzuordnungsverzerrung.

Weitere Informationen

P

Teilnahmeverzerrung

#fairness

Synonym für „Non-Response Bias“. Siehe Auswahlverzerrung.

Nachbearbeitung

#fairness
#fundamentals

Die Ausgabe eines Modells anpassen, nachdem es ausgeführt wurde. Die Nachbearbeitung kann verwendet werden, um Fairness-Einschränkungen durchzusetzen, ohne Modelle selbst zu ändern.

Sie können beispielsweise die Nachbearbeitung auf einen binären Klassifikator anwenden, indem Sie einen Klassifizierungsschwellenwert festlegen, sodass die Chance der Empfehlung für ein Attribut beibehalten wird. Dazu muss überprüft werden, ob die wahre positive Rate für alle Werte dieses Attributs gleich ist.

Vorhersageparität

#fairness

Ein Fairness-Messwert, der prüft, ob die Präzisions-Raten für einen bestimmten Klassifikator für die untersuchten Untergruppen äquivalent sind.

Ein Modell, das die Akzeptanz von Hochschulen vorhersagt, würde beispielsweise die vorhergesagte Einheitlichkeit für die Nationalität erfüllen, wenn seine Precision-Rate für Lilliputians und Brobdingnagians gleich ist.

Die Prognoseparität wird manchmal auch als Vorhersageparität bezeichnet.

Eine ausführlichere Diskussion zur Vorhersageparität finden Sie unter Fairness-Definitionen (Abschnitt 3.2.1).

Schätzung der Preisparität

#fairness

Ein anderer Name für die Prognoseparität.

Vorverarbeitung

#fairness
Daten werden verarbeitet, bevor sie zum Trainieren eines Modells verwendet werden. Die Vorverarbeitung kann ebenso einfach sein wie das Entfernen von Wörtern aus einem englischen Textkorpus, die im englischen Wörterbuch nicht vorkommen, oder so komplex wie die erneute Darstellung von Datenpunkten, um möglichst viele Attribute zu vermeiden, die mit sensiblen Attributen korreliert werden. Die Vorverarbeitung kann dabei helfen, die Fairness-Einschränkungen zu erfüllen.

Proxy (sensible Attribute)

#fairness
Ein Attribut, das als eigenständiges Attribut für ein sensibles Attribut verwendet wird So kann beispielsweise die Postleitzahl einer Person als Stellvertreter für ihr Einkommen, ihre ethnische Herkunft oder ihre ethnische Zugehörigkeit verwendet werden.

R

Berichtsverzerrung

#fairness

Die Häufigkeit, mit der Nutzer über Aktionen, Ergebnisse oder Attribute schreiben, spiegelt nicht ihre tatsächliche Häufigkeit und den Grad der Charakteristik einer Klasse von Einzelpersonen wider. Die Verzerrung bei der Berichterstellung kann die Zusammensetzung der Daten beeinflussen, von denen Systeme für maschinelles Lernen lernen.

In Büchern ist das Wort lacht beispielsweise vorherrschend als atmen. Ein Modell für maschinelles Lernen, das die relative Frequenz der Lachen und Atmung aus einem Buchkorpus schätzt, würde wahrscheinlich feststellen, dass ein Lachen häufiger als das Atmen ist.

S

Sampling Bias

#fairness

Siehe Auswahlverzerrung.

Auswahlverzerrung

#fairness

Fehler in Schlussfolgerungen, die aus Stichprobendaten aufgrund eines Auswahlprozesses stammen, der systematische Unterschiede zwischen den in den Daten beobachteten und den nicht beobachteten Stichproben generiert. Die folgenden Formen der Auswahlverzerrung sind vorhanden:

  • Abdeckungsverzerrung: Die im Dataset dargestellte Population stimmt nicht mit der Population überein, für die das Modell für maschinelles Lernen Vorhersagen trifft.
  • Stichprobenverzerrung: Daten werden nicht zufällig aus der Zielgruppe erhoben.
  • Non-Response Bias (auch als Teilnahmeverzerrung bezeichnet): Nutzer aus bestimmten Gruppen deaktivieren Umfragen in unterschiedlichen Raten als Nutzer aus anderen Gruppen.

Angenommen, Sie erstellen ein Modell für maschinelles Lernen, das die Freude an einem Film auf Personenbasis vorhersagt. Alle Mitarbeiter in der ersten Reihe eines Kinos, in denen der Film gezeigt wird, erhalten eine Umfrage, um die Trainingsdaten zu erfassen. Dies mag auf den ersten Blick sinnvoll erscheinen, um ein Dataset zu erfassen. Diese Form der Datenerhebung kann jedoch die folgenden Formen der Auswahlverzerrung mit sich bringen:

  • Abdeckungsverzerrung: Durch die Stichprobe einer Population, die sich den Film angesehen hat, können die Vorhersagen Ihres Modells nicht für Nutzer verallgemeinert werden, die nicht bereits das Interesse an dem Film zum Ausdruck gebracht haben.
  • Samplingverzerrung: Statt stichprobenartig Daten der beabsichtigten Bevölkerung (alle Personen im Film) abzurufen, haben Sie nur Stichproben in der ersten Zeile verwendet. Es ist möglich, dass die Menschen in der vorderen Reihe mehr am Film interessiert sind als die in anderen Reihen.
  • Personen, die keine verzerrungswürdigen Ergebnisse erzielen: Im Allgemeinen reagieren Personen mit starken Meinungen häufiger auf optionale Umfragen als Nutzer mit schwacher Meinung. Da die Filmumfrage optional ist, ist bei den Antworten die Wahrscheinlichkeit einer bimodalen Verteilung höher als bei einer normalen (glockenförmigen) Verteilung.

sensibles Attribut

#fairness
Ein Attribut, das aus rechtlichen, ethischen, sozialen oder persönlichen Gründen besonders berücksichtigt werden sollte.

U

Unbewusstheit (bei einem sensiblen Attribut)

#fairness

Eine Situation, in der vertrauliche Attribute vorhanden, aber nicht in den Trainingsdaten enthalten sind. Da sensible Attribute oft mit anderen Attributen der eigenen Daten korreliert werden, kann ein Modell, das mit einem nicht bekannten Attribut trainiert wird, in Bezug auf dieses Attribut unterschiedliche Auswirkungen haben oder andere Fairness-Einschränkungen verletzen.