ML への降順

線形回帰は、一連の点に最も適した直線またはハイパープレーンを見つける方法です。このモジュールでは、線形回帰に対する機械学習アプローチの土台を築く前に、直線回帰を直感的に探索します。

ML への降順

  • データから学習するための複雑な方法が多数ある
  • しかし、最初はシンプルで使い慣れたものから始めてもよいでしょう。
  • 簡単なことから始めることで、広く使える方法の扉を開く
データが過学習の状態であるモデル

特定の例の L2 損失は、二乗誤差とも呼ばれます

= 予測とラベルの差の二乗

=(観測 - 予測)2

=(y - y')2

予測値と損失のグラフ

$$ L_2Loss = \sum_{(x,y)\in D} (y - prediction(x))^2 $$

\(\sum \text{:We're summing over all examples in the training set.}\) \(D \text{: Sometimes useful to average over all examples,}\) \(\text{so divide by} {\|D\|}.\)