機器學習範例:圖片分類
透過集合功能整理內容
你可以依據偏好儲存及分類內容。
防止過度配適
如同所有機器學習模型,訓練卷積類神經網路的關鍵問題就是「過度調整」:這個模型專門調整訓練資料的具體細節,無法訓練到新的範例。如要在建構 CNN 時避免過度配適,有以下兩種技巧:
- 資料擴充:透過對現有映像檔進行隨機轉換以建立一組新變數,以人工方式增強訓練範例的多樣性和數量 (請參閱圖 7)。如果原始訓練資料集相對較小,資料擴充就特別實用。
- 捨棄規則:在訓練梯度步驟期間,隨機從類神經網路中移除單元。
圖 7. 在單一狗狗圖片上擴增資料 (摘錄自 Kaggle 的&ât;Dogs vs. Cats" 資料集)。左:訓練集的原始狗狗圖片。右側:使用隨機轉換從原始圖片產生的九張新圖片。
除非另有註明,否則本頁面中的內容是採用創用 CC 姓名標示 4.0 授權,程式碼範例則為阿帕契 2.0 授權。詳情請參閱《Google Developers 網站政策》。Java 是 Oracle 和/或其關聯企業的註冊商標。
上次更新時間:2022-09-27 (世界標準時間)。
[{
"type": "thumb-down",
"id": "missingTheInformationINeed",
"label":"缺少我需要的資訊"
},{
"type": "thumb-down",
"id": "tooComplicatedTooManySteps",
"label":"過於複雜/步驟過多"
},{
"type": "thumb-down",
"id": "outOfDate",
"label":"過時"
},{
"type": "thumb-down",
"id": "translationIssue",
"label":"翻譯問題"
},{
"type": "thumb-down",
"id": "samplesCodeIssue",
"label":"示例/程式碼問題"
},{
"type": "thumb-down",
"id": "otherDown",
"label":"其他"
}]
[{
"type": "thumb-up",
"id": "easyToUnderstand",
"label":"容易理解"
},{
"type": "thumb-up",
"id": "solvedMyProblem",
"label":"確實解決了我的問題"
},{
"type": "thumb-up",
"id": "otherUp",
"label":"其他"
}]