Pratique du ML: classification d'images

Prévenir le surapprentissage

Comme pour tout modèle de machine learning, le surapprentissage est une préoccupation majeure lors de l'entraînement d'un réseau de neurones convolutif. Il s'agit d'un modèle si adapté aux spécificités des données d'entraînement qu'il ne peut pas généraliser à de nouveaux exemples. Voici deux techniques pour éviter le surapprentissage lorsque vous créez un réseau de neurones convolutif:

  • Augmentation des données: augmentation artificielle de la diversité et du nombre d'exemples d'entraînement en effectuant des transformations aléatoires sur des images existantes pour créer un ensemble de nouvelles variantes (voir Figure 7). L'augmentation des données est particulièrement utile lorsque l'ensemble de données d'entraînement d'origine est relativement petit.
  • Régularisation par abandon : suppression aléatoire d'unités du réseau de neurones lors d'une étape de gradient d'entraînement.

Schéma d'augmentation des données sur une seule image de chien, produisant neuf images via des transformations aléatoires Figure 7. Augmentation des données sur une seule image de chien (extraite de l'ensemble de données "Dogs vs. Cats"", disponible sur Kaggle) À gauche: image de chien originale tirée de l'ensemble d'entraînement. À droite: neuf nouvelles images générées à partir d'une image d'origine à l'aide de transformations aléatoires.