減少損失
透過集合功能整理內容
你可以依據偏好儲存及分類內容。
如要訓練模型,我們需要合適的方法來減少模型的損失。疊代方法是減少損失的其中一種方法,與向下步行的方式一樣簡單且有效率。
減少損失
如何減少損失?
- 「超參數」是一種設定,可用來調整模型訓練方式。
- 比較權重和偏誤的導數 (y - y')2,代表特定範例的損失變化
- 因此我們不斷朝目標邁進,盡可能減少損失
- 我們稱之為「梯度步數」 (但它們其實是負值的漸層步驟)
- 這項策略稱為「梯度下降法」
權重初始化
- 對於表面問題,權重可以從任意位置開始 (例如,0 皆為 0 秒)
權重初始化
- 對於表面問題,權重可以從任意位置開始 (例如,0 皆為 0 秒)
- 影子覆蓋:如果類神經網路不是真相
- 無凸面:想一顆卵子
- 超過一個下限
- 對初始值有強烈的依賴性
新加坡幣和小批梯度下降法
- 可以計算每個步驟的整個資料集的梯度,但這並不是非必要的
- 對小資料樣本的計算梯度成效良好
- 隨機梯度下降法:一次一個範例
- 最小批次梯度下降法:10-1000 批次
除非另有註明,否則本頁面中的內容是採用創用 CC 姓名標示 4.0 授權,程式碼範例則為阿帕契 2.0 授權。詳情請參閱《Google Developers 網站政策》。Java 是 Oracle 和/或其關聯企業的註冊商標。
上次更新時間:2023-12-02 (世界標準時間)。
[{
"type": "thumb-down",
"id": "missingTheInformationINeed",
"label":"缺少我需要的資訊"
},{
"type": "thumb-down",
"id": "tooComplicatedTooManySteps",
"label":"過於複雜/步驟過多"
},{
"type": "thumb-down",
"id": "outOfDate",
"label":"過時"
},{
"type": "thumb-down",
"id": "translationIssue",
"label":"翻譯問題"
},{
"type": "thumb-down",
"id": "samplesCodeIssue",
"label":"示例/程式碼問題"
},{
"type": "thumb-down",
"id": "otherDown",
"label":"其他"
}]
[{
"type": "thumb-up",
"id": "easyToUnderstand",
"label":"容易理解"
},{
"type": "thumb-up",
"id": "solvedMyProblem",
"label":"確實解決了我的問題"
},{
"type": "thumb-up",
"id": "otherUp",
"label":"其他"
}]