Explora las siguientes opciones.
Observamos un proceso de usar un conjunto de prueba y uno de entrenamiento para impulsar las iteraciones del desarrollo del modelo. En cada iteración, entrenamos los datos de entrenamiento y evaluamos los datos de prueba, y usamos los resultados de la evaluación en los datos de prueba para guiar las elecciones y los cambios en varios hiperparámetros del modelo, como la tasa de aprendizaje y los atributos. ¿Hay algún problema con este enfoque? (Elige solo una respuesta).
Totalmente bien, estamos entrenando datos de entrenamiento y evaluando datos de prueba separados y retenidos.
En realidad, hay un problema sutil aquí. Piense en lo que podría ocurrir
si hiciéramos muchas iteraciones de esta forma.
Realizar varias rondas de este procedimiento puede provocar que nos adaptemos implícitamente a las peculiaridades de nuestro conjunto de prueba específico.
¡Sí! Cuanto más frecuentemente evaluemos un conjunto de pruebas determinado, mayor riesgo corremos de sobreajustarlo implícitamente.
A continuación, veremos un mejor protocolo.
Esto resulta ineficiente en términos de procesamiento. Solo debemos elegir un conjunto predeterminado de hiperparámetros y vivir con ellos para ahorrar recursos.
Aunque estos tipos de iteraciones son costosos, son una parte fundamental del desarrollo del modelo. La configuración de hiperparámetros puede marcar una gran diferencia en la calidad del modelo, y siempre debemos presupuestar una cantidad determinada de tiempo y recursos de procesamiento para asegurarnos de obtener la mejor calidad posible.