Équité

Pour évaluer de façon responsable un modèle de machine learning, il ne suffit pas de calculer des métriques de perte. Avant de mettre un modèle en production, il est essentiel d'auditer les données d'entraînement et d'évaluer les prédictions pour identifier les biais.

Ce module examine différents types de biais humains pouvant se manifester dans les données d'entraînement. Il fournit ensuite des stratégies pour les identifier et évaluer leurs effets.

Équité

Un régime de bananes sur une étagère dans un magasin
  • Bananes
Un régime de bananes
  • Bananes
  • Stickers
Un régime de bananes
  • Bananes
  • Stickers
  • Des bananes sur les étagères
Un régime de bananes
  • Des bananes vertes
  • Non mûr Bananes
Un régime de bananes vertes
  • Bananes trop grandes
  • Convient aux pains à la banane
Un régime de bananes brunes

Des bananes jaunes

Le jaune est prototypique des bananes

Un régime de bananes
Schéma illustrant un workflow de machine learning classique: collecter des données, entraîner un modèle, puis générer un résultat
Schéma illustrant deux types de biais dans les données: les biais humains qui se manifestent dans les données (comme les biais d'homogénéité de l'exogroupe) et les biais humains qui affectent la collecte et l'annotation des données (comme les biais de confirmation).
  1. Réfléchissez au problème
  1. Réfléchissez au problème
  2. Demander aux experts
  1. Réfléchissez au problème
  2. Demander aux experts
  3. Entraîner les modèles à prendre en compte les biais
  1. Réfléchissez au problème
  2. Demander aux experts
  3. Entraîner les modèles à prendre en compte les biais
  4. Interpréter les résultats
  1. Réfléchissez au problème
  2. Demander aux experts
  3. Entraîner les modèles à prendre en compte les biais
  4. Interpréter les résultats
  5. Publier en contexte