以下の選択肢をご確認ください。
100 個の入力特徴を持つ線形モデルについて考えてみましょう。 10 の情報がとても有用です。
無情報である。
すべての特徴が -1 ~ 1 の値であると仮定します。次の説明のうち正しいものはどれですか。
L1 の正則化により、非情報的重みの多くが 0.0 付近で(正確には)なくなります。
一般に、十分なラムダの L1 正則化は、非情報的特徴を厳密に 0.0 の重みで促進する傾向があります。L2 正則化とは異なり、L1 正則化は「プッシュ」です。重みが 0.0 から離れていても、0.0 に難しくなります。
L1 の正則化により、非情報ウェイトのほとんどが正確に 0.0 になります。
十分なラムダの L1 正則化は、非情報性の重みが正確に 0.0 になる傾向があります。それにより、こうした非情報量的な特徴がモデルから排除され、
L1 の正則化により、有益な機能の重みが正確に 0.0 になる可能性があります。
L1 の正則化により、次の種類の特徴に厳密に 0 の重みが与えられる場合があります。弱い有益な機能。
さまざまな規模で有益な情報を提供する機能。
情報の特徴は、他の類似の特徴と強い相関関係がある。