Équité

L'équité aborde les disparités de résultats possibles que les utilisateurs finaux peuvent rencontrer en lien avec des caractéristiques sensibles, telles que l'origine ethnique, les revenus, l'orientation sexuelle ou le genre, par le biais de la prise de décision algorithmique. Par exemple, un algorithme de recrutement peut-il présenter des biais pour ou contre les candidats dont le nom est associé à un genre ou une origine ethnique spécifiques ?

Pour en savoir plus sur la façon dont les systèmes de machine learning peuvent être sensibles aux biais humains, regardez cette vidéo :

Pour un exemple concret, découvrez comment des produits tels que la recherche Google et Google Photos ont amélioré la diversité de la représentation des carnations grâce à l'échelle Monk Skin Tone.

Il existe des méthodes fiables pour identifier, mesurer et atténuer les biais dans les modèles. Le module Équité du Cours d'initiation au machine learning présente en détail les techniques d'équité et d'atténuation des biais.

People + AI Research (PAIR) propose des explorables interactifs sur l'IA pour expliquer les concepts de mesure de l'équité et de biais cachés. Pour en savoir plus sur les termes liés à l'équité dans le ML, consultez Glossaire du machine learning : équité | Google for Developers.