Restez organisé à l'aide des collections
Enregistrez et classez les contenus selon vos préférences.
Pour évaluer de façon responsable un modèle de machine learning, il ne suffit pas de calculer des métriques de perte.
Avant de mettre un modèle en production, il est essentiel d'auditer les données d'entraînement et d'évaluer les prédictions pour identifier les biais.
Ce module examine différents types de biais humains pouvant se manifester dans les données d'entraînement. Il fournit ensuite des stratégies pour les identifier et évaluer leurs effets.
Équité
Que voyez-vous ?
Que voyez-vous ?
Bananes
Que voyez-vous ?
Bananes
Stickers
Que voyez-vous ?
Bananes
Stickers
Des bananes sur les étagères
Que voyez-vous ?
Des bananes vertes
Non mûr Bananes
Que voyez-vous ?
Bananes trop grandes
Convient aux pains à la banane
Que voyez-vous ?
Des bananes jaunes
Le jaune est prototypique des bananes
Concevoir pour l'équité
Concevoir pour l'équité
Réfléchissez au problème
Concevoir pour l'équité
Réfléchissez au problème
Demander aux experts
Concevoir pour l'équité
Réfléchissez au problème
Demander aux experts
Entraîner les modèles à prendre en compte les biais
Concevoir pour l'équité
Réfléchissez au problème
Demander aux experts
Entraîner les modèles à prendre en compte les biais
Interpréter les résultats
Concevoir pour l'équité
Réfléchissez au problème
Demander aux experts
Entraîner les modèles à prendre en compte les biais
Sauf indication contraire, le contenu de cette page est régi par une licence Creative Commons Attribution 4.0, et les échantillons de code sont régis par une licence Apache 2.0. Pour en savoir plus, consultez les Règles du site Google Developers. Java est une marque déposée d'Oracle et/ou de ses sociétés affiliées.