以下の選択肢をご確認ください。

100 個の入力特徴を持つ線形モデルについて考えてみましょう。
  • 10 の情報がとても有用です。
  • 無情報である。
  • すべての特徴が -1 ~ 1 の値であると仮定します。次の説明のうち正しいものはどれですか。
    L1 の正則化により、非情報的重みの多くが 0.0 付近で(正確には)なくなります。
    一般に、十分なラムダの L1 正則化は、非情報的特徴を厳密に 0.0 の重みで促進する傾向があります。L2 正則化とは異なり、L1 正則化は「プッシュ」です。重みが 0.0 から離れていても、0.0 に難しくなります。
    L1 の正則化により、非情報ウェイトのほとんどが正確に 0.0 になります。
    十分なラムダの L1 正則化は、非情報性の重みが正確に 0.0 になる傾向があります。それにより、こうした非情報量的な特徴がモデルから排除され、
    L1 の正則化により、有益な機能の重みが正確に 0.0 になる可能性があります。
    L1 の正則化により、次の種類の特徴に厳密に 0 の重みが与えられる場合があります。
  • 弱い有益な機能。
  • さまざまな規模で有益な情報を提供する機能。
  • 情報の特徴は、他の類似の特徴と強い相関関係がある。