Regresja logistyczna: obliczanie prawdopodobieństwa

Wiele problemów wymaga podania wartości szacunkowej jako danych wyjściowych. Regresja logistyczna to bardzo skuteczny mechanizm obliczania prawdopodobieństwa. W praktyce oznacza to, że zwrot wartości można zastosować na 2 sposoby:

  • "
  • Przekonwertowano na kategorię binarną.

Weźmy pod uwagę to, jak wykorzystamy prawdopodobieństwo w takiej postaci, w jakiej jest. Załóżmy, że opracowujemy model regresji logicznej, który pozwala przewidzieć prawdopodobieństwo tego, że pies będzie szczekać w środku nocy. Prawdopodobieństwo to:

\[p(bark | night)\]

Jeśli prognoza regresji logicznej przewiduje \(p(bark | night) = 0.05\), to w ciągu roku właściciel psa powinien zacząć się budzić ok. 18 razy:

\[\begin{align} startled &= p(bark | night) \cdot nights \\ &= 0.05 \cdot 365 \\ &~= 18 \end{align} \]

W wielu przypadkach zmapujesz dane regresyjne logistyki na rozwiązanie do problemu z klasyfikacją binarną, w której celem jest prawidłowa przewidywalność jednej z dwóch etykiet (np. "spam" &&tt;not spam"). Następnie skupi się na tym moduł.

Być może zastanawiasz się, jak model regresji logistycznej może sprawić, że dane wyjściowe będą zawsze mieścić się w zakresie od 0 do 1. W takiej sytuacji funkcja sigmoidowa zdefiniowana w ten sposób daje wyniki o tych samych cechach:

$$y = \frac{1}{1 + e^{-z}}$$

Funkcja sigmoid generuje taki wykres:

Funkcja sigmo. Oś x to nieprzetworzona wartość wnioskowania. Oś Y obejmuje od 0 do +1 (wyłącznie).

Rysunek 1. Funkcja sigmoidowa

Jeśli \(z\) odzwierciedla dane wyjściowe warstwy liniowej modelu wytrenowanego za pomocą regresji logicznej, \(sigmoid(z)\) uzyska wartość (prawdopodobieństwo) od 0 do 1. W kontekście matematycznym:

$$y' = \frac{1}{1 + e^{-z}}$$

gdzie:

  • \(y'\) to dane wyjściowe modelu regresji logicznej dla danego przykładu.
  • \(z = b + w_1x_1 + w_2x_2 + \ldots + w_Nx_N\)
    • Wartości \(w\) to model nauczony wagi, \(b\) to odchylenia.
    • Wartości \(x\) to wartości cech określonego przykładu.

Zwróć uwagę, że \(z\) jest też nazywany logiem nieparzystym, ponieważ odwrotność sigmoidów, które można zdefiniować \(z\) jako log prawdopodobieństwa \(1\) etykiety (np. &&tt; szczeki dla psów") podzielone przez prawdopodobieństwo \(0\)etykiety (np. "pies nie

$$ z = \log\left(\frac{y}{1-y}\right) $$

Oto funkcja sigmoid z etykietami ML:

Funkcja Sigmoid z osią X oznaczoną jako sumę wszystkich wag i elementów (plus odchylenie). Oś Y jest oznaczona jako Dane wyjściowe prawdopodobieństwa.

Rysunek 2. Dane regresyjne logistyki wyjściowej