損失削減
コレクションでコンテンツを整理
必要に応じて、コンテンツの保存と分類を行います。
モデルをトレーニングするには、モデルの損失を削減する適切な方法が必要です。反復アプローチは損失を削減するために広く使用されている方法の 1 つであり、丘を歩くのと同じくらい簡単で効率的です。
損失の低減
損失を減らすにはどうすればよいか
- ハイパーパラメータは、モデルのトレーニング方法を調整するための構成設定です。
- 重みとバイアスに関する (y - y')2 の導関数から、ある例における損失がどのように変化するかがわかります。
- そこで、損失が最小になる方向に小さなステップを
- これを勾配ステップと呼びます(実際には負の勾配ステップ)
- この戦略を勾配降下法と呼びます。
- 勾配降下法の演習を試す
- エクササイズが終了したら、再生 ▶ を押して続行してください
重みの初期化
- 凸問題の場合、重みはどこにでも開始できる(たとえば、すべて 0)
重みの初期化
- 凸問題の場合、重みはどこにでも開始できる(たとえば、すべて 0)
- 予測: ニューラル ネットには当てはまらない
- 非凸形: 卵箱を思い浮かべてください
- 最小値を超えています
- 初期値への強い依存
SGD とミニバッチ勾配降下法
- 各ステップでデータセット全体の勾配を計算できますが、その必要はありませんでした
- 小規模なデータサンプルに対する勾配計算がうまく機能する
- 確率的勾配降下法: 一度に 1 つの例
- ミニバッチの勾配降下法: 10 ~ 1,000 のバッチ
特に記載のない限り、このページのコンテンツはクリエイティブ・コモンズの表示 4.0 ライセンスにより使用許諾されます。コードサンプルは Apache 2.0 ライセンスにより使用許諾されます。詳しくは、Google Developers サイトのポリシーをご覧ください。Java は Oracle および関連会社の登録商標です。
最終更新日 2023-12-02 UTC。
[{
"type": "thumb-down",
"id": "missingTheInformationINeed",
"label":"必要な情報がない"
},{
"type": "thumb-down",
"id": "tooComplicatedTooManySteps",
"label":"複雑すぎる / 手順が多すぎる"
},{
"type": "thumb-down",
"id": "outOfDate",
"label":"最新ではない"
},{
"type": "thumb-down",
"id": "translationIssue",
"label":"翻訳に関する問題"
},{
"type": "thumb-down",
"id": "samplesCodeIssue",
"label":"サンプル / コードに問題がある"
},{
"type": "thumb-down",
"id": "otherDown",
"label":"その他"
}]
[{
"type": "thumb-up",
"id": "easyToUnderstand",
"label":"わかりやすい"
},{
"type": "thumb-up",
"id": "solvedMyProblem",
"label":"問題の解決に役立った"
},{
"type": "thumb-up",
"id": "otherUp",
"label":"その他"
}]