Confira as opções abaixo.
Imagine um modelo linear com cem atributos de entrada:
10 são altamente informativas.
90 não são informativos.
Suponha que todos os atributos tenham valores entre -1 e 1.
Quais das seguintes afirmações são verdadeiras?
A regularização de L1 incentivará muitos dos pesos não informativos
a quase 0,0, mas não exatamente.
Em geral, a regularização de L1da de lambda suficiente tende a
incentivar atributos não informativos a pesos exatos de 0,0.
Ao contrário da regularização de L2, a regularização de L1 "push" é igualmente difícil
para 0,0, independentemente da distância de 0,0 para o peso.
A regularização de L1 incentivará a maioria dos pesos não informativos
a exatamente 0,0.
A regularização de L1da de lambda suficiente tende a incentivar
ponderações não informativas a se tornarem exatamente 0,0. Ao fazer isso, esses
recursos não informativos deixam o modelo.
A regularização de L1 pode fazer com que atributos informativos recebam um peso de exatamente 0,0.
Cuidado: a regularização de L1 pode fazer com que os seguintes tipos de
atributos recebam pesos de zero exatamente:
Recursos fracos e informativos.
Recursos altamente informativos em diferentes escalas.
Os recursos informativos são altamente correlacionados com outros
recursos semelhantes.