Dostępne opcje są opisane poniżej.
Załóżmy, że model liniowy obejmuje 100 funkcji wejściowych:
10 oferuje dostęp do wielu źródeł.
90 nie zawierają informacji.
Załóżmy, że wszystkie funkcje mają wartości z zakresu od -1 do 1.
Które z poniższych stwierdzeń jest prawdziwe?
Regularizacja L1 sprawi, że wiele wag nieinformacyjnych będzie zawierało wartość niemal 0,0 (ale nie dokładnie).
Normalnie L1 wystarczającej ilości lambda zwykle zachęca do stosowania funkcji niezawierających informacji, które mają wagę 0,0.
W przeciwieństwie do normalizacji L2 ®ularizacja
L1 jest tak samo ważna dla
0,0 niezależnie od tego, jak daleko od wagi jest 0,0.
Regularizacja L1 sprawi, że większość wag nieinformacyjnych będzie wynosić dokładnie 0,0.
Regularność lambdy w poziomie L1 zazwyczaj zachęca do podawania informacji niezawierających informacji, które mają wartość 0,0. Jeśli tego nie zrobisz, te informacje nie będą zawierać modelu.
Regularizacja L1 może powodować, że funkcje informacyjne będą miały dokładnie 0,0.
Zachowaj ostrożność – regularne L1 może spowodować przydzielanie dokładnie takich wartości do 0 punktów:
Słabe informacje.
Przydatne informacje na różne skalę.
Funkcje informacyjne korelują się z innymi podobnymi funkcjami.