Explora las siguientes opciones.
Imagina un modelo lineal con 100 atributos de entrada:
10 son muy informativos.
90 no son informativos.
Supongamos que todos los atributos tienen valores entre -1 y 1.
¿Cuáles de las siguientes afirmaciones son verdaderas?
La regularización L1 hará que muchas de los pesos no informativos sean casi (pero no exactamente) 0.0.
En general, la regularización L1 de suficientes lambdas tiende a llevar atributos no informativos a pesos de exactamente 0.0.
A diferencia de la regularización L2, la regularización L1 "presiona" para 0.0, sin importar qué tan lejos esté el peso de 0.0.
La regularización L1 hará que la mayoría de los pesos no informativos sean exactamente 0.0.
La regularización L1 de suficientes lambdas tiende a hacer que los pesos no informativos sean exactamente 0.0. Si lo haces, estos atributos no informativos saldrán del modelo.
La regularización L1 puede hacer que los atributos informativos tengan un peso exacto de 0.0.
Ten cuidado, la regularización L1 puede hacer que los siguientes tipos de atributos tengan pesos exactamente de 0:
Funciones poco informativas
Funciones muy informativas en diferentes escalas
Atributos informativos fuertemente correlacionados con otros atributos informativos similares