公平性

機械学習モデルを評価するには、損失指標の計算だけではなく、責任を持って行う必要があります。モデルを本番環境に移す前に、トレーニング データを監査し、バイアスに対する予測を評価することが非常に重要です。

このモジュールでは、トレーニング データに現れる可能性がある人間のさまざまなバイアスを取り上げます。次に、ユーザーを識別し、その効果を評価するための戦略を示します。

公平さ

店舗の棚に並ぶバナナ
  • バナナ
たくさんのバナナ
  • バナナ
  • Stickers
たくさんのバナナ
  • バナナ
  • Stickers
  • 棚のバナナ
たくさんのバナナ
  • バナナ
  • Unripe バナナ
たくさんのバナナ
  • 過剰な消費 バナナ
  • バナナブレッドに最適
茶色のバナナ

イエロー バナナ

黄色はバナナの原型です。

黄色のバナナ
一般的な機械学習ワークフローを示す図: データの収集、モデルのトレーニング、出力の生成
データの 2 種類のバイアスを示す図: データに現れる人間のバイアス(グループ間の同種バイアスなど)と、データの収集とアノテーションに影響する人間のバイアス(確認バイアスなど)
  1. 問題を検討する
  1. 問題を検討する
  2. エキスパートに質問
  1. 問題を検討する
  2. エキスパートに質問
  3. バイアスを考慮してモデルをトレーニングする
  1. 問題を検討する
  2. エキスパートに質問
  3. バイアスを考慮してモデルをトレーニングする
  4. 結果を解釈する
  1. 問題を検討する
  2. エキスパートに質問
  3. バイアスを考慮してモデルをトレーニングする
  4. 結果を解釈する
  5. コンテキスト付き公開