ステップ 5: ハイパーパラメータを調整する
コレクションでコンテンツを整理
必要に応じて、コンテンツの保存と分類を行います。
モデルを定義してトレーニングするために、多くのハイパーパラメータを選択する必要がありました。直感、例、おすすめの方法を参考にしました。ただし、最初にハイパーパラメータ値を選択しても、最適な結果が得られない可能性があります。これは、トレーニングの出発点にすぎない。すべての問題は異なります。これらのハイパーパラメータを調整すると、モデルの絞り込みを行い、発生している問題の特異性をより適切に再現できます。使用したハイパーパラメータのいくつかと、それらの調整の意味を見てみましょう。
モデルのレイヤ数: ニューラル ネットワークのレイヤ数は、その複雑さの指標です。この値を選択する際は注意が必要です。レイヤが多すぎると、モデルがトレーニング データに関して大量の情報を学習し、過学習の原因となります。レイヤが少なすぎると、モデルの学習能力が制限され、適合不足を引き起こす可能性があります。テキスト分類データセットについては、1 レイヤ、2 レイヤ、3 レイヤの MLP をテストしました。2 レイヤモデルのモデルはうまく機能しており、場合によっては 3 レイヤモデルよりも優れたパフォーマンスを発揮します。同様に、4 層と 6 層で sepCNN を試したところ、4 層モデルの性能が良好でした。
レイヤあたりのユニット数: レイヤのユニットは、レイヤが実行する変換の情報を保持する必要があります。最初のレイヤでは、これは特徴の数によって決まります。後続のレイヤでユニット数は、前のレイヤで表現を展開または縮小するかどうかによって異なります。レイヤ間の情報損失を最小限に抑えるようにしてください。[8, 16, 32, 64]
の範囲の単位を試しましたが、32/64 単位がうまく機能しました。
ドロップアウト率: ドロップアウト レイヤは、モデルで正則化に使用されます。過学習の対策として、破棄する入力の割合を定義します。推奨範囲: 0.2 ~ 0.5。
学習率: イテレーション間でニューラル ネットワークの重みが変化する頻度です。学習率が高いと重みが大きく変動し、最適な値を見つけられないことがあります。学習率は低くても問題ありませんが、収束にさらに反復処理が必要になります。最初は 1e-4 から始めることをおすすめします。トレーニングが非常に遅い場合は、この値を増やします。モデルが学習していない場合は、学習率を下げてみてください。
spCNN モデルに固有の、調整したハイパーパラメータは他にもあります。
カーネルサイズ: 畳み込みウィンドウのサイズ。推奨値: 3 または 5。
埋め込みディメンション: 単語のエンベディングを表すために使用するディメンションの数。つまり、各単語ベクトルのサイズです。推奨値: 50 ~ 300。Google のテストでは、事前トレーニング済みのエンベディング レイヤで、200 次元の GloVe エンベディングを使用しました。
これらのハイパーパラメータを試し、何が最適かを確かめてください。ユースケースに最適なパフォーマンスのハイパーパラメータを選択したら、モデルをデプロイできます。
特に記載のない限り、このページのコンテンツはクリエイティブ・コモンズの表示 4.0 ライセンスにより使用許諾されます。コードサンプルは Apache 2.0 ライセンスにより使用許諾されます。詳しくは、Google Developers サイトのポリシーをご覧ください。Java は Oracle および関連会社の登録商標です。
最終更新日 2022-09-27 UTC。
[[["わかりやすい","easyToUnderstand","thumb-up"],["問題の解決に役立った","solvedMyProblem","thumb-up"],["その他","otherUp","thumb-up"]],[["必要な情報がない","missingTheInformationINeed","thumb-down"],["複雑すぎる / 手順が多すぎる","tooComplicatedTooManySteps","thumb-down"],["最新ではない","outOfDate","thumb-down"],["翻訳に関する問題","translationIssue","thumb-down"],["サンプル / コードに問題がある","samplesCodeIssue","thumb-down"],["その他","otherDown","thumb-down"]],["最終更新日 2022-09-27 UTC。"],[[["Initial hyperparameter choices provide a starting point for model training, but further tuning is crucial to optimize performance for specific text classification problems."],["The number of layers in a neural network impacts its complexity, with two-layer MLPs and four-layer sepCNNs showing promising results in text classification."],["Key hyperparameters to adjust include the number of units per layer (32 or 64 performed well), dropout rate (0.2-0.5 recommended), and learning rate (start low and adjust based on training progress)."],["For sepCNN models, optimizing kernel size (3 or 5) and embedding dimensions (50-300) further enhances performance."],["Experimenting with different hyperparameter combinations is essential to achieve the best model performance for your specific use case before deployment."]]],[]]