Изучите варианты ниже.

Представьте себе линейную модель со 100 входными функциями:
  • 10 очень информативны.
  • 90 неинформативны.
  • Предположим, что все функции имеют значения от -1 до 1. Какие из следующих утверждений верны?
    Регуляризация L1 будет способствовать тому, чтобы многие неинформативные веса были почти (но не точно) равными 0,0.
    В общем, L1-регуляризация достаточной лямбды имеет тенденцию поощрять неинформативные функции к весу ровно 0,0. В отличие от регуляризации L2, регуляризация L1 так же сильно «подталкивает» к 0,0 независимо от того, насколько далеко вес от 0,0.
    Регуляризация L1 будет способствовать тому, чтобы большинство неинформативных весов были точно равны 0,0.
    Регуляризация L1 достаточного лямбда имеет тенденцию побуждать неинформативные веса становиться точно равными 0,0. Таким образом, эти неинформативные функции покидают модель.
    Регуляризация L1 может привести к тому, что информативные признаки получат вес ровно 0,0.
    Будьте осторожны - регуляризация L1 может привести к тому, что веса следующих типов объектов будут равны нулю:
  • Слабоинформативные функции.
  • Сильно информативные признаки в разных масштабах.
  • Информативные признаки сильно коррелируют с другими аналогичными информативными признаками.