Mit Sammlungen den Überblick behalten
Sie können Inhalte basierend auf Ihren Einstellungen speichern und kategorisieren.
Fairness
Fairness bezieht sich auf die möglichen unterschiedlichen Ergebnisse, die Endnutzer aufgrund algorithmischer Entscheidungsfindung im Zusammenhang mit sensiblen Merkmalen wie ethnische Herkunft, Einkommen, sexuelle Orientierung oder Geschlecht erfahren können. Könnte ein Algorithmus für die Personalauswahl beispielsweise Voreingenommenheiten für oder gegen Bewerber mit Namen haben, die mit einem bestimmten Geschlecht oder einer bestimmten ethnischen Zugehörigkeit in Verbindung stehen?
In diesem Video erfahren Sie mehr darüber, wie anfällig Systeme für maschinelles Lernen für menschliche Voreingenommenheit sein können:
Ein praktisches Beispiel dafür, wie Produkte wie die Google Suche und Google Fotos die Vielfalt der Hauttondarstellung durch die Monk-Hauttonskala verbessert haben, finden Sie hier.
Es gibt zuverlässige Methoden, um Verzerrungen in Modellen zu identifizieren, zu messen und zu verringern. Das Modul Fairness im Crashkurs zum maschinellen Lernen bietet einen detaillierten Einblick in Techniken zur Minimierung von Fairness und Voreingenommenheit.
[[["Leicht verständlich","easyToUnderstand","thumb-up"],["Mein Problem wurde gelöst","solvedMyProblem","thumb-up"],["Sonstiges","otherUp","thumb-up"]],[["Benötigte Informationen nicht gefunden","missingTheInformationINeed","thumb-down"],["Zu umständlich/zu viele Schritte","tooComplicatedTooManySteps","thumb-down"],["Nicht mehr aktuell","outOfDate","thumb-down"],["Problem mit der Übersetzung","translationIssue","thumb-down"],["Problem mit Beispielen/Code","samplesCodeIssue","thumb-down"],["Sonstiges","otherDown","thumb-down"]],["Zuletzt aktualisiert: 2024-11-14 (UTC)."],[[["Fairness in machine learning aims to address potential unequal outcomes for users based on sensitive attributes like race, gender, or income due to algorithmic decisions."],["Machine learning systems can inherit human biases, impacting outcomes for certain groups, and require strategies for identification, measurement, and mitigation."],["Google has worked on improving fairness in products like Google Search and Google Photos by utilizing the Monk Skin Tone Scale to better represent skin tone diversity."],["Developers can learn about fairness and bias mitigation techniques in detail through resources like the Fairness module of Google's Machine Learning Crash Course and interactive AI Explorables from People + AI Research (PAIR)."]]],[]]