Équité

Pour évaluer de manière responsable un modèle de machine learning, il ne suffit pas de calculer les statistiques de perte. Avant de mettre le modèle en production, il est essentiel de vérifier les données d'apprentissage et d'évaluer les prédictions pour identifier les biais.

Ce module examine différents types de biais humains pouvant se manifester dans les données d'apprentissage. Il fournit ensuite des stratégies pour les identifier et évaluer leurs effets.

Équité

Un régime de bananes sur le rayon d'un magasin
  • Des bananes
Un régime de bananes
  • Des bananes
  • Des autocollants
Un régime de bananes
  • Des bananes
  • Des autocollants
  • Des bananes sur des rayons
Un régime de bananes
  • Des bananes vertes
  • Des bananes pas mûres
Un régime de bananes vertes
  • Des bananes trop mûres
  • De quoi faire un gâteau à la banane
Un régime de bananes marron

Des bananes jaunes

Le jaune est prototypique des bananes

Un régime de bananes jaunes
Schéma illustrant un workflow de machine learning classique : collecte des données, entraînement d'un modèle, puis génération d'une sortie
Schéma illustrant deux types de biais dans les données : les biais humains qui se manifestent dans les données (comme le biais d'homogénéité de l'exogroupe) et les biais humains qui affectent la collecte et l'annotation des données (comme le biais de confirmation)
  1. Envisager le problème
  1. Envisager le problème
  2. Demander aux experts
  1. Envisager le problème
  2. Demander aux experts
  3. Entraîner les modèles à tenir compte des biais
  1. Envisager le problème
  2. Demander aux experts
  3. Entraîner les modèles à tenir compte des biais
  4. Interpréter les résultats
  1. Envisager le problème
  2. Demander aux experts
  3. Entraîner les modèles à tenir compte des biais
  4. Interpréter les résultats
  5. Publier les résultats en contexte