Glossar zum maschinellen Lernen: Fairness

Diese Seite enthält Glossarbegriffe zum Thema Fairness. Alle Glossarbegriffe finden Sie hier.

A

Attribut

#fairness

Synonym für feature.

Im Bereich der Fairness beim maschinellen Lernen beziehen sich Attribute oft auf Merkmale, die sich auf Einzelpersonen beziehen.

Automation Bias

#fairness

Wenn ein menschlicher Entscheidungsträger Empfehlungen von einem automatisierten Entscheidungssystem gegenüber Informationen ohne Automatisierung bevorzugt, selbst wenn das automatisierte Entscheidungssystem Fehler macht.

B

Voreingenommenheit (Ethik/Fairness)

#fairness
#fundamentals

1. Vorurteile, Vorurteile oder Bevorzugung bestimmter Dinge, Personen oder Gruppen gegenüber anderen. Diese Verzerrungen können sich auf die Erfassung und Interpretation von Daten, das Design eines Systems und die Interaktion von Nutzern mit einem System auswirken. Zu den Formen dieser Art von Verzerrung gehören:

2. Systematischer Fehler, der durch eine Stichproben- oder Berichterstattung verursacht wird. Zu den Formen dieser Art von Verzerrung gehören:

Nicht zu verwechseln mit dem Begriff Verzerrung in ML-Modellen oder Vorhersageverzerrung.

C

Bestätigungsverzerrung

#fairness

Die Tendenz, Informationen so zu suchen, zu interpretieren, zu bevorzugen und sich daran zu erinnern, dass die bestehenden Überzeugungen oder Hypothesen bestätigt werden. Entwickler für maschinelles Lernen können versehentlich Daten so erfassen oder kennzeichnen, dass ein Ergebnis beeinflusst wird, das ihre bestehenden Überzeugungen unterstützt. Der Bestätigungsfehler ist eine Form der impliziten Voreingenommenheit.

Experimentatorverzerrung ist eine Form der Bestätigungsverzerrung, bei der ein Experimentator so lange Modelle trainiert, bis eine bereits bestehende Hypothese bestätigt ist.

kontrafaktische Fairness

#fairness

Ein Fairness-Messwert, der prüft, ob ein Klassifikator für eine Person dasselbe Ergebnis liefert wie für eine andere Person, die mit der ersten identisch ist. Ausgenommen hiervon sind ein oder mehrere sensible Attribute. Die Bewertung eines Klassifikators auf kontrafaktische Fairness ist eine Methode, um potenzielle Quellen von Verzerrungen in einem Modell aufzudecken.

Eine ausführlichere Besprechung von kontrafaktischer Fairness findest du im Artikel When Worlds Collide: Integrate Different Counterfactual Assures in Fairness (in englischer Sprache).

Abdeckungsverzerrung

#fairness

Siehe Auswahlverzerrung.

D

demografische Gleichheit

#fairness

Ein Fairness-Messwert, der erfüllt wird, wenn die Ergebnisse der Klassifizierung eines Modells nicht von einem bestimmten sensiblen Attribut abhängen.

Wenn beispielsweise sowohl die Lilliputianer als auch die Brobdingnagier sich für die Glubbdubdrib University bewerben, wird die demografische Parität erreicht, wenn der Prozentsatz der aufgenommenen Lilliputer dem Prozentsatz der zugelassenen Brobdingnagier entspricht, unabhängig davon, ob eine Gruppe im Durchschnitt besser qualifiziert ist als die andere.

Im Kontrast zu den ausgeglichenen Chancen und der Chancengleichheit können Klassifizierungsergebnisse in zusammengefasster Form von sensiblen Attributen abhängen. Klassifizierungsergebnisse für bestimmte Ground-Truth-Labels dürfen jedoch nicht von sensiblen Attributen abhängen. Eine Visualisierung zu den Vor- und Nachteilen der demografischen Parität finden Sie unter Diskriminierung durch intelligentes maschinelles Lernen angreifen.

unterschiedliche Auswirkungen

#fairness

Entscheidungen über Menschen treffen, die unterschiedliche Untergruppen überproportional beeinflussen. Dies bezieht sich in der Regel auf Situationen, in denen ein algorithmischer Entscheidungsprozess einigen Untergruppen mehr schadet oder vorteilhafter als andere ist.

Nehmen wir zum Beispiel an, ein Algorithmus, der die Berechtigung eines Lilliputers für einen Mini-Hypotheken bestimmt, würde diese eher als „unzulässig“ einstufen, wenn die Postanschrift eine bestimmte Postleitzahl enthält. Wenn Big-Endian Lilliputian eher Postadressen mit dieser Postleitzahl haben als Little-Endian Lilliputian, kann dieser Algorithmus verschiedene Auswirkungen haben.

Im Gegensatz dazu steht eine unterschiedliche Behandlung, bei der Unterschiede im Mittelpunkt stehen, die entstehen, wenn die Merkmale von Untergruppen explizit in einen algorithmischen Entscheidungsprozess einbezogen werden.

unterschiedliche Behandlung

#fairness

Dabei werden die sensiblen Attribute von Personen in einen algorithmischen Entscheidungsprozess einbezogen, um verschiedene Untergruppen von Menschen unterschiedlich zu behandeln.

Stellen Sie sich beispielsweise einen Algorithmus vor, der die Berechtigung von Lilliputians für einen Mini-Hypotheken anhand der Daten bestimmt, die er bei seinem Kreditantrag zur Verfügung stellt. Wenn der Algorithmus die Zugehörigkeit einer Lilliputianen als Big-Endian oder Little-Endian als Eingabe verwendet, erfolgt eine unterschiedliche Behandlung entlang dieser Dimension.

Im Gegensatz dazu stehen disparate impact (unterschiedliche Auswirkungen) auf Unterschiede bei den gesellschaftlichen Auswirkungen algorithmischer Entscheidungen auf Untergruppen im Mittelpunkt, unabhängig davon, ob diese Untergruppen Eingaben in das Modell sind.

E

Chancengleichheit

#fairness

Ein Fairness-Messwert, mit dem beurteilt werden soll, ob ein Modell das gewünschte Ergebnis für alle Werte eines sensiblen Attributs gleichermaßen gut vorhersagt. Mit anderen Worten: Wenn das gewünschte Ergebnis für ein Modell die positive Klasse ist, wäre das Ziel, die tatsächliche positive Rate für alle Gruppen gleich zu haben.

Chancengleichheit hängt mit der gleichmäßigen Wahrscheinlichkeit zusammen. Dies erfordert, dass sowohl die Richtig-Positiv-Raten als auch die Falsch-Positiv-Raten für alle Gruppen gleich sind.

Angenommen, die Glubbdubdrib University gestattet sowohl den Lilliputianen als auch den Brobdingnagians ein strenges Mathematikprogramm. Die Sekundarschulen der Lilliputians bieten einen robusten Lehrplan für Mathematikunterricht und die überwiegende Mehrheit der Schüler ist für das Universitätsprogramm qualifiziert. An den Sekundarschulen von Brobdingnagians gibt es überhaupt keinen Mathematikunterricht, wodurch deutlich weniger Schüler qualifiziert sind. Die Chancengleichheit ist für das bevorzugte Label "zugelassen" in Bezug auf die Nationalität (Lilliputian oder Brobdingnagian) erfüllt, wenn qualifizierte Studierende mit gleicher Wahrscheinlichkeit zugelassen werden, unabhängig davon, ob sie Lilliputer oder Brobdingnagian sind.

Angenommen, 100 Lilliputianer und 100 Brobdingnagian bewerben sich für die Glubbdubdrib University und die Zulassungsentscheidungen werden wie folgt getroffen:

Tabelle 1. Lilliputische Bewerber (90% sind qualifiziert)

  Qualifiziert Unqualifiziert
Zugelassen 45 3
Abgelehnt 45 7
Gesamt 90 10
Prozentsatz der zugelassenen Studenten: 45 ÷ 90 = 50%
Prozentsatz der abgelehnten Studenten: 7 ÷ 10 = 70%
Gesamtzahl der aufgenommenen liliputischen Schüler: (45 + 3) ÷ 100 = 48%

 

Tabelle 2 Bewerber nach Brobdingnagian (10% sind qualifiziert):

  Qualifiziert Unqualifiziert
Zugelassen 5 9
Abgelehnt 5 81
Gesamt 10 90
Prozentsatz der zugelassenen Studenten: 5 ÷ 10 = 50%
Prozentsatz der abgelehnten Studenten: 81 ÷ 90 = 90%
Gesamtzahl der zugelassenen Studenten: (5 + 9) ÷ 100 = 14%

Die vorherigen Beispiele erfüllen die Chancengleichheit für die Akzeptanz qualifizierter Studenten, da sowohl qualifizierte Lilliputiane als auch Brobdingnagians eine Chance von 50% haben, zugelassen zu werden.

Auch wenn die Chancengleichheit erfüllt ist, werden die folgenden beiden Fairness-Messwerte nicht erfüllt:

  • demografische Parität: Lilliputianer und Brobdingnagier werden zu unterschiedlichen Preisen an der Universität zugelassen; 48% der Lilliputianer werden zugelassen, aber nur 14% der Brobdingnagian Studierenden werden zugelassen.
  • Ausgleichschancen: Obwohl qualifizierte Lilliputian und Brobdingnagian Studierende die gleiche Chance haben, zugelassen zu werden, wird die zusätzliche Einschränkung, dass sowohl nicht qualifizierte Lilliputians als auch Brobdingnagian die gleiche Chance haben, abgelehnt zu werden, nicht erfüllt. Unqualifizierte Lilliputisten haben eine Ablehnungsrate von 70 %, während unqualifizierte Brobdingnagians eine Ablehnungsrate von 90% haben.

Eine ausführlichere Beschreibung der Chancengleichheit finden Sie unter "Chancengleichheit im überwachten Lernen". Eine Visualisierung zu den Vor- und Nachteilen bei der Optimierung der Chancengleichheit finden Sie unter Diskriminierung durch intelligentes maschinelles Lernen angreifen.

Entspricht

#fairness

Ein Fairness-Messwert, mit dem beurteilt werden soll, ob ein Modell Ergebnisse für alle Werte eines sensiblen Attributs in Bezug auf die positive Klasse und die negative Klasse gleichermaßen gut vorhersagt – und nicht nur die eine oder die andere Klasse. Mit anderen Worten: Sowohl die Rate für richtig positive Ergebnisse als auch die Rate falsch negativer Ergebnisse sollten für alle Gruppen gleich sein.

Eine ausgeglichene Wahrscheinlichkeit bezieht sich auf die Chancengleichheit, die sich nur auf Fehlerraten für eine einzelne Klasse (positiv oder negativ) konzentriert.

Nehmen wir zum Beispiel an, die Glubbdubdrib University gestattet sowohl den Lilliputianen als auch den Brobdingnagiern ein anspruchsvolles Mathematikprogramm. Die Sekundarschulen der Lilliputians bieten einen soliden Lehrplan für Mathematikkurse und die überwiegende Mehrheit der Schüler ist für das Universitätsprogramm qualifiziert. An den Sekundarschulen der Brobdingnagians wird gar kein Mathematikunterricht angeboten, wodurch deutlich weniger Schüler qualifiziert sind. Die ausgleichende Wahrscheinlichkeit ist dabei gegeben, dass ein Bewerber unabhängig davon, ob er ein Lilliputer oder ein Brobdingnagian ist, mit gleich hoher Wahrscheinlichkeit für das Programm zugelassen wird, und wenn er nicht qualifiziert ist, ist die Wahrscheinlichkeit, dass er abgelehnt wird, gleich hoch.

Angenommen, 100 Lilliputianer und 100 Brobdingnagier bewerben sich für die Glubbdubdrib University und die Zulassungsentscheidungen werden wie folgt getroffen:

Tabelle 3 Lilliputische Bewerber (90% sind qualifiziert)

  Qualifiziert Unqualifiziert
Zugelassen 45 2
Abgelehnt 45 8
Gesamt 90 10
Prozentsatz der zugelassenen Studierenden: 45/90 = 50%
Prozentsatz der abgelehnten Studenten: 8 ÷ 10 = 80%
Gesamtzahl der zugelassenen Studenten: (45 + 2) ÷ 100 = 47%

 

Tabelle 4 Bewerber nach Brobdingnagian (10% sind qualifiziert):

  Qualifiziert Unqualifiziert
Zugelassen 5 18
Abgelehnt 5 72
Gesamt 10 90
Prozentsatz der zugelassenen Studenten: 5 ÷ 10 = 50%
Prozentsatz der abgelehnten Studenten: 72 ÷ 90 = 80%
Gesamtzahl der zugelassenen Studenten: (5 + 18) ÷ 100 = 23%

Die ausgleichenden Chancen sind erfüllt, da qualifizierte Lilliputian- und Brobdingnagian-Studenten eine Chance von 50% haben, und nicht qualifizierte Lilliputian und Brobdingnagian eine Chance von 80 %, abgelehnt zu werden.

Die gleichmäßige Wahrscheinlichkeit wird in "Equality of Opportunity in Supervised Learning" wie folgt definiert: "Prädiktor Ŷ erfüllt die ausgegleichten Chancen in Bezug auf das geschützte Attribut A und das Ergebnis Y, wenn Ŷ und A unabhängig sind und an die Bedingungen Y gebunden sind."

Verzerrung durch Experimentator

#fairness

Siehe Bestätigungsverzerrung.

F

Fairness-Einschränkung

#fairness
Anwenden einer Einschränkung auf einen Algorithmus, um sicherzustellen, dass eine oder mehrere Definitionen von Fairness erfüllt sind Beispiele für Fairness-Einschränkungen:

Fairness-Messwert

#fairness

Eine mathematische Definition von „Fairness“, die messbar ist. Zu den am häufigsten verwendeten Messwerten für Fairness gehören:

Viele Fairness-Messwerte schließen sich gegenseitig aus (siehe Inkompatibilität von Fairness-Messwerten).

G

Gruppenattributionsverzerrung

#fairness

Unter der Annahme, dass das, was für eine Person trifft, auch für alle in dieser Gruppe gilt. Die Auswirkungen einer Gruppenattributionsverzerrung können sich noch verstärken, wenn für die Datenerhebung eine willkürliche Stichprobe verwendet wird. In einer nicht repräsentativen Stichprobe können Zuordnungen vorgenommen werden, die die Realität nicht widerspiegeln.

Siehe auch Out-Group-Homogenitätsverzerrung und In-Group-Verzerrung.

H

historische Voreingenommenheit

#fairness

Ein Typ der Voreingenommenheit, der bereits auf der Welt existiert und in ein Dataset aufgenommen wurde. Diese Voreingenommenheiten neigen dazu, bestehende kulturelle Stereotype, demografische Ungleichheiten und Vorurteile gegenüber bestimmten sozialen Gruppen widerzuspiegeln.

Stellen Sie sich beispielsweise ein Klassifizierungsmodell in Betracht, das vorhersagt, ob ein Kreditbewerber seinen Kredit nicht mehr akzeptiert. Das Modell wurde anhand von Standarddaten für frühere Kredite aus den 1980er-Jahren von lokalen Banken in zwei verschiedenen Gemeinschaften trainiert. Wenn frühere Bewerber aus Community A mit sechsmal höherer Wahrscheinlichkeit keinen Kredit für ihre Kredite aufnehmen würden als Bewerber aus Community B, lernt das Modell möglicherweise eine historische Verzerrung, wodurch das Modell die Wahrscheinlichkeit, dass Kredite in Community A genehmigt werden, geringer war, auch wenn die historischen Bedingungen, die zu den höheren Standardzinsen in dieser Community geführt haben, nicht mehr relevant waren.

I

impliziter Bias

#fairness

Es wird automatisch eine Verbindung oder Annahme basierend auf den eigenen Gedankenmodellen und Erinnerungen hergestellt. Implizite Voreingenommenheit kann Folgendes beeinflussen:

  • Wie Daten erhoben und klassifiziert werden
  • Wie Systeme für maschinelles Lernen konzipiert und entwickelt werden

Bei der Erstellung eines Klassifikators zur Identifizierung von Hochzeitsfotos könnte ein Entwickler z. B. das Vorhandensein eines weißen Kleides in einem Foto als Merkmal verwenden. Weiße Kleider waren jedoch nur in bestimmten Epochen und in bestimmten Kulturen üblich.

Weitere Informationen finden Sie unter Bestätigungsverzerrung.

Inkompatibilität von Fairness-Messwerten

#fairness

Die Idee, dass einige Vorstellungen der Fairness nicht miteinander kompatibel sind und nicht gleichzeitig erfüllt werden können. Daher gibt es keinen universellen Messwert zur Quantifizierung der Fairness, der auf alle ML-Probleme angewendet werden kann.

Dies mag abschreckend erscheinen, bedeutet jedoch nicht, dass die Inkompatibilität von Fairness-Messwerten erfolglos sind. Stattdessen wird darauf hingewiesen, dass Fairness für ein bestimmtes ML-Problem kontextuell definiert werden muss, um Schäden in Bezug auf die jeweiligen Anwendungsfälle zu verhindern.

Eine ausführlichere Diskussion dieses Themas finden Sie unter Über die (un)Möglichkeit der Fairness.

individuelle Fairness

#fairness

Ein Fairness-Messwert, der prüft, ob ähnliche Personen ähnlich klassifiziert werden. Die Brobdingnagian Academy möchte beispielsweise die Fairness des Einzelnen erfüllen, indem sichergestellt wird, dass zwei Studenten mit identischen Noten und standardisierten Prüfungsergebnissen mit gleicher Wahrscheinlichkeit zugelassen werden.

Beachten Sie, dass die individuelle Fairness vollständig davon abhängt, wie Sie „Ähnlichkeit“ definieren (in diesem Fall Noten und Testergebnisse). Es besteht das Risiko, dass neue Fairness-Probleme entstehen, wenn Ihrem Ähnlichkeitsmesswert wichtige Informationen (z. B. die Genauigkeit des Lehrplans eines Schülers) fehlen.

Im Artikel Fairness durch Bekanntheit findest du eine ausführlichere Beschreibung der individuellen Fairness.

In-Group-Verzerrung

#fairness

Sie zeigen eine Vorurteile auf die eigene Gruppe oder die eigenen Eigenschaften. Wenn es sich bei den Testern um Freunde, Familienmitglieder oder Kollegen des Entwicklers für maschinelles Lernen handelt, können durch Verzerrungen innerhalb einer Gruppe Produkttests oder das Dataset entwertet werden.

In-Group-Verzerrungen sind eine Form der Gruppenattributionsverzerrung. Siehe auch Out-Group-Homogenitätsverzerrung.

N

Negativverzerrung

#fairness

Siehe Auswahlverzerrung.

O

Out-Group-Homogenitätsverzerrung

#fairness

Die Tendenz, Mitglieder aus der externen Gruppe als ähnlich zu betrachten, wenn man Einstellungen, Werte, Persönlichkeitsmerkmale und andere Eigenschaften vergleicht. In-Group bezieht sich auf Personen, mit denen Sie regelmäßig interagieren, und Out-Group bezieht sich auf Personen, mit denen Sie nicht regelmäßig interagieren. Wenn Sie ein Dataset erstellen, indem Sie Nutzer bitten, Attribute zu externen Gruppen anzugeben, sind diese Attribute möglicherweise weniger differenziert und stereotyper als Attribute, die die Teilnehmer für Personen in ihrer Gruppe angeben.

Sie könnten beispielsweise die Häuser anderer Lilliputer sehr detailliert beschreiben und kleine Unterschiede in Architekturstilen, Fenstern, Türen und Größen zitieren. Dieselben Lilliputianer könnten jedoch auch einfach behaupten, dass Brobdingnagier alle in identischen Häusern leben.

Die Out-Group-Homogenitätsverzerrung ist eine Form der Gruppenattributionsverzerrung.

Weitere Informationen finden Sie unter In-Group-Verzerrung.

P

Beteiligungsverzerrung

#fairness

Synonym für „Non-Response Bias“. Siehe Auswahlverzerrung.

Nachbearbeitung

#fairness
#fundamentals

Ausgabe eines Modells anpassen, nachdem das Modell ausgeführt wurde. Die Nachverarbeitung kann verwendet werden, um Fairness-Einschränkungen durchzusetzen, ohne die Modelle selbst zu ändern.

Sie können beispielsweise die Nachbearbeitung auf einen binären Klassifikator anwenden, indem Sie einen Klassifizierungsschwellenwert so festlegen, dass die Chancengleichheit für ein bestimmtes Attribut aufrechterhalten wird. Dazu wird geprüft, ob die Rate echt positiver Ergebnisse für alle Werte dieses Attributs gleich ist.

Vorhersageparität

#fairness

Ein Fairness-Messwert, der prüft, ob die Precision-Raten für einen bestimmten Klassifikator für die untersuchten Untergruppen äquivalent sind.

Beispielsweise würde ein Modell, das die Akzeptanz von Colleges prognostiziert, die vorhergesagte Parität für die Nationalität erfüllen, wenn seine Precision-Rate für Lilliputians und Brobdingnagier gleich ist.

Die vorausschauende Parität wird manchmal auch als vorausschauende Ratenparität bezeichnet.

Unter Erläuterung der Fairness-Definitionen (Abschnitt 3.2.1) finden Sie eine detailliertere Beschreibung der Vorhersageparität.

Prognoserateparität

#fairness

Ein anderer Name für Vorhersageparität.

Vorverarbeitung

#fairness
Daten verarbeiten, bevor sie zum Trainieren eines Modells verwendet werden. Die Vorverarbeitung kann so einfach sein wie das Entfernen von Wörtern aus einem englischen Textkorpus, die nicht im englischen Wörterbuch vorkommen, oder sie kann so komplex sein wie das Umformulieren von Datenpunkten so, dass so viele Attribute ausgeschlossen werden, die mit sensiblen Attributen korrelieren. Die Vorverarbeitung kann helfen, Fairness-Einschränkungen zu erfüllen.

Proxy (sensible Attribute)

#fairness
Ein Attribut, das als Ersatz für ein sensibles Attribut verwendet wird. Beispielsweise kann die Postleitzahl einer Person als Stellvertreter ihres Einkommens, ihrer ethnischen Herkunft oder ihrer ethnischen Zugehörigkeit verwendet werden.

R

Berichtsverzerrung

#fairness

Die Tatsache, dass die Häufigkeit, mit der Menschen über Aktionen, Ergebnisse oder Eigenschaften schreiben, spiegelt weder ihre tatsächliche Häufigkeit noch den Grad wider, in dem eine Eigenschaft für eine Gruppe von Individuen charakteristisch ist. Verzerrungen bei der Berichterstellung können die Zusammensetzung der Daten beeinflussen, von denen Systeme für maschinelles Lernen lernen.

In Büchern ist zum Beispiel das Wort lacht häufiger als atmen. Ein Modell für maschinelles Lernen, das die relative Häufigkeit von Lachen und Atmen aus einem Buchkorpus schätzt, würde wahrscheinlich bestimmen, dass Lachen häufiger als Atmen ist.

S

Stichprobenverzerrung

#fairness

Siehe Auswahlverzerrung.

Auswahlverzerrung

#fairness

Fehler in Schlussfolgerungen aus Stichprobendaten aufgrund eines Auswahlprozesses, der systematische Unterschiede zwischen den in den Daten beobachteten Stichproben und den nicht beobachteten Stichproben erzeugt. Es gibt die folgenden Formen der Auswahlverzerrung:

  • Abdeckungsverzerrung: Die im Dataset dargestellte Population stimmt nicht mit der Population überein, für die das Modell für maschinelles Lernen Vorhersagen trifft.
  • Stichprobenverzerrung: Die Daten der Zielgruppe werden nicht nach dem Zufallsprinzip erfasst.
  • Nicht-Antwortverzerrung (auch als Teilnahmeverzerrung bezeichnet): Nutzer aus bestimmten Gruppen nehmen zu unterschiedlichen Häufigkeiten an Umfragen teil als Nutzer aus anderen Gruppen.

Angenommen, Sie erstellen ein Modell für maschinelles Lernen, das vorhersagt, wie gut ein Film läuft. Zum Erfassen von Trainingsdaten geben Sie allen in der ersten Reihe eines Kinos, in dem der Film gezeigt wird, eine Umfrage aus. Dies mag nach einer vernünftigen Methode zum Erfassen eines Datasets klingen. Diese Form der Datenerhebung kann jedoch zu den folgenden Formen der Auswahlverzerrung führen:

  • Abdeckungsverzerrung: Durch Stichproben aus einer Population, die sich den Film angesehen hat, werden die Vorhersagen Ihres Modells möglicherweise nicht auf Personen verallgemeinert, die dieses Interesse an dem Film noch nicht zum Ausdruck gebracht haben.
  • Stichprobenverzerrung: Anstelle einer zufälligen Stichprobennahme von der gewünschten Bevölkerung (alle Personen im Film) haben Sie nur die Personen in der ersten Reihe genommen. Es ist möglich, dass die Personen in der ersten Reihe mehr an dem Film interessiert waren als die Personen in den anderen Zeilen.
  • Non-Response-Verzerrung: Im Allgemeinen nehmen Personen mit einer ausgeprägten Meinung häufiger an optionalen Umfragen teil als Personen mit einer eher schwachen Meinung. Da die Filmumfrage optional ist, bilden die Antworten eher eine bimodale Verteilung als eine normale (glockenförmige) Verteilung.

sensibles Attribut

#fairness
Eine menschliche Eigenschaft, die aus rechtlichen, ethischen, sozialen oder persönlichen Gründen besonders berücksichtigt werden kann.

U

Unkenntnis (auf ein sensibles Attribut)

#fairness

Eine Situation, in der sensible Attribute vorhanden sind, aber nicht in den Trainingsdaten enthalten sind. Da sensible Attribute oft mit anderen Attributen der eigenen Daten korreliert werden, kann ein Modell, das ohne Kenntnis eines sensiblen Attributs trainiert wurde, dennoch unterschiedliche Auswirkungen in Bezug auf dieses Attribut haben oder gegen andere Fairness-Einschränkungen verstoßen.