Explorez les options ci-dessous.

Nous avons vu comment utiliser un ensemble de test et un ensemble d'entraînement pour effectuer des itérations de développement de modèle. À chaque itération, nous nous appuyons sur les données d'entraînement et nous les évaluons à l'aide des résultats d'évaluation sur les données de test pour orienter les choix et les modifications d'hyperparamètres pour différents modèles, tels que le taux d'apprentissage et les caractéristiques. Y a-t-il un problème avec cette approche ? (Une seule réponse possible.)
C'est tout à fait normal. Nous entraînons les données d'entraînement et les évaluons sur des données d'examen séparées.
En fait, il y a un problème subtil. Réfléchissez à ce qui pourrait se produire si nous effectuons de nombreuses itérations de ce formulaire.
Effectuer de nombreuses séries de cette procédure pourrait nous amener à s'adapter implicitement aux particularités de notre ensemble de test spécifique.
Oui ! Plus la fréquence d'évaluation est élevée, plus le risque de surapprentissage est implicite. Nous allons maintenant voir un meilleur protocole.
Cette approche est inefficace en termes de calcul. Nous devons simplement choisir un ensemble d'hyperparamètres par défaut et l'utiliser pour économiser les ressources.
Bien que ces types d'itérations soient coûteux, ils sont essentiels au développement du modèle. Les paramètres d'hyperparamètres peuvent faire la différence au niveau de la qualité du modèle. Nous devons toujours prévoir un certain temps et des ressources de calcul pour assurer une qualité optimale.