Confira as opções abaixo.

Imagine um modelo linear com cem atributos de entrada:
  • 10 são altamente informativas.
  • 90 não são informativos.
  • Suponha que todos os atributos tenham valores entre -1 e 1. Quais das seguintes afirmações são verdadeiras?
    A regularização de L1 incentivará muitos dos pesos não informativos a quase 0,0, mas não exatamente.
    Em geral, a regularização de L1da de lambda suficiente tende a incentivar atributos não informativos a pesos exatos de 0,0. Ao contrário da regularização de L2, a regularização de L1 "push" é igualmente difícil para 0,0, independentemente da distância de 0,0 para o peso.
    A regularização de L1 incentivará a maioria dos pesos não informativos a exatamente 0,0.
    A regularização de L1da de lambda suficiente tende a incentivar ponderações não informativas a se tornarem exatamente 0,0. Ao fazer isso, esses recursos não informativos deixam o modelo.
    A regularização de L1 pode fazer com que atributos informativos recebam um peso de exatamente 0,0.
    Cuidado: a regularização de L1 pode fazer com que os seguintes tipos de atributos recebam pesos de zero exatamente:
  • Recursos fracos e informativos.
  • Recursos altamente informativos em diferentes escalas.
  • Os recursos informativos são altamente correlacionados com outros recursos semelhantes.