Оптимизируйте свои подборки
Сохраняйте и классифицируйте контент в соответствии со своими настройками.
Справедливость
Справедливость учитывает возможные несопоставимые результаты, с которыми могут столкнуться конечные пользователи, связанные с такими чувствительными характеристиками, как раса, доход, сексуальная ориентация или пол, посредством алгоритмического принятия решений. Например, может ли алгоритм найма иметь предубеждения за или против кандидатов, имена которых связаны с определенным полом или этнической принадлежностью?
Узнайте больше о том, как системы машинного обучения могут быть подвержены человеческой предвзятости, из этого видео:
В качестве примера из реальной жизни читайте о том, как такие продукты, как Google Search и Google Photos, улучшили разнообразие представлений оттенков кожи с помощью шкалы оттенков кожи Монка .
Существуют надежные методы выявления, измерения и смягчения систематической ошибки в моделях. Модуль «Справедливость»ускоренного курса машинного обучения предоставляет углубленный взгляд на методы обеспечения справедливости и смягчения предвзятости.
[[["Прост для понимания","easyToUnderstand","thumb-up"],["Помог мне решить мою проблему","solvedMyProblem","thumb-up"],["Другое","otherUp","thumb-up"]],[["Отсутствует нужная мне информация","missingTheInformationINeed","thumb-down"],["Слишком сложен/слишком много шагов","tooComplicatedTooManySteps","thumb-down"],["Устарел","outOfDate","thumb-down"],["Проблема с переводом текста","translationIssue","thumb-down"],["Проблемы образцов/кода","samplesCodeIssue","thumb-down"],["Другое","otherDown","thumb-down"]],["Последнее обновление: 2024-11-19 UTC."],[[["Fairness in machine learning aims to address potential unequal outcomes for users based on sensitive attributes like race, gender, or income due to algorithmic decisions."],["Machine learning systems can inherit human biases, impacting outcomes for certain groups, and require strategies for identification, measurement, and mitigation."],["Google has worked on improving fairness in products like Google Search and Google Photos by utilizing the Monk Skin Tone Scale to better represent skin tone diversity."],["Developers can learn about fairness and bias mitigation techniques in detail through resources like the Fairness module of Google's Machine Learning Crash Course and interactive AI Explorables from People + AI Research (PAIR)."]]],[]]