Restez organisé à l'aide des collections
Enregistrez et classez les contenus selon vos préférences.
Équité
L'équité vise à éviter les résultats disparates que les utilisateurs finaux peuvent rencontrer en lien avec des caractéristiques sensibles telles que l'origine ethnique, les revenus, l'orientation sexuelle ou le genre, par le biais d'une prise de décision algorithmique. Par exemple, un algorithme de recrutement peut-il présenter des biais en faveur ou à l'encontre des candidats dont le nom est associé à un genre ou une origine ethnique particuliers ?
Découvrez comment les systèmes de machine learning peuvent être sujets aux biais humains dans cette vidéo:
Pour un exemple concret, découvrez comment des produits tels que la recherche Google et Google Photos ont amélioré la diversité de la représentation des différents types de peau grâce à l'Échelle MST (Monk Skin Tone).
Il existe des méthodes fiables pour identifier, mesurer et atténuer les biais dans les modèles. Le module sur l'équité du cours d'initiation au machine learning fournit un aperçu approfondi des techniques d'équité et d'atténuation des biais.
Sauf indication contraire, le contenu de cette page est régi par une licence Creative Commons Attribution 4.0, et les échantillons de code sont régis par une licence Apache 2.0. Pour en savoir plus, consultez les Règles du site Google Developers. Java est une marque déposée d'Oracle et/ou de ses sociétés affiliées.
Dernière mise à jour le 2024/11/14 (UTC).
[[["Facile à comprendre","easyToUnderstand","thumb-up"],["J'ai pu résoudre mon problème","solvedMyProblem","thumb-up"],["Autre","otherUp","thumb-up"]],[["Il n'y a pas l'information dont j'ai besoin","missingTheInformationINeed","thumb-down"],["Trop compliqué/Trop d'étapes","tooComplicatedTooManySteps","thumb-down"],["Obsolète","outOfDate","thumb-down"],["Problème de traduction","translationIssue","thumb-down"],["Mauvais exemple/Erreur de code","samplesCodeIssue","thumb-down"],["Autre","otherDown","thumb-down"]],["Dernière mise à jour le 2024/11/14 (UTC)."],[[["Fairness in machine learning aims to address potential unequal outcomes for users based on sensitive attributes like race, gender, or income due to algorithmic decisions."],["Machine learning systems can inherit human biases, impacting outcomes for certain groups, and require strategies for identification, measurement, and mitigation."],["Google has worked on improving fairness in products like Google Search and Google Photos by utilizing the Monk Skin Tone Scale to better represent skin tone diversity."],["Developers can learn about fairness and bias mitigation techniques in detail through resources like the Fairness module of Google's Machine Learning Crash Course and interactive AI Explorables from People + AI Research (PAIR)."]]],[]]