ML Practicum: classificazione delle immagini

Come prevenire l'overfitting

Come per qualsiasi modello di machine learning, un aspetto fondamentale dell'addestramento di una rete neurale convoluzionale è l'overfitting: un modello così sintonizzato sulle specifiche dei dati di addestramento che non è possibile generalizzare con nuovi esempi. Due tecniche per prevenire l'overfitting durante la creazione di una CNN sono:

  • Potenziamento dei dati: potenzia artificialmente la varietà e il numero di esempi di addestramento eseguendo trasformazioni casuali alle immagini esistenti per creare un insieme di nuove varianti (vedi Figura 7). L'integrazione dei dati è particolarmente utile quando il set di dati di addestramento originale è relativamente piccolo.
  • Normalizzazione degli abbandoni: rimozione casuale delle unità dalla rete neurale durante un passaggio del gradiente di addestramento.

Diagramma dell'aumento dei dati su un'immagine di cane che produce 9 nuove immagini tramite trasformazioni casuali Figura 7. Aumento dei dati su una singola immagine di cane (estratto dal "Dogs vs. Cats" set di dati disponibile su Kaggle). Sinistra: immagine originale del cane dal set di addestramento. Destra: nove nuove immagini generate dall'immagine originale utilizzando trasformazioni casuali.