まとめ

公平性は、達成すべき 1 回限りの目標ではありません。これは継続的な取り組みです。ここでは、Perspective API モデルのバイアスを緩和するための Jigsaw の継続的な取り組みについて詳しく説明します。

ML の公平性の詳細

以下のリソースで ML 公平性教育を継続
この 1 時間の自習コースでは、一般的なバイアスの原因、データのバイアスを特定する方法、公平性を考慮に入れたモデル予測の評価方法など、ML の公平性の基本コンセプトを紹介します。
ML 用語集には 30 個以上の ML 公平性エントリが含まれており、初級的な定義のほか、一般的なバイアスや公平性評価の指標などの例が記載されています。

ML ワークフローに公平性を組み込む

ML モデルのバイアスを特定して修正するには、次のツールを使用します。
公平性インジケーターは、TensorFlow Model Analysis(TFMA)を利用した可視化ツールです。サブグループ全体でモデルのパフォーマンスを評価し、偽陽性率、偽陰性率、適合率、再現率などの一般的な指標の結果をグラフ化します。
What-If ツールは、モデルの詳細な調査に役立つ、インタラクティブなビジュアル インターフェースです。さまざまな最適化戦略を使用して、データセットのさまざまな特徴のモデル パフォーマンスを調査し、個々のデータポイント値を操作した場合の影響を調べます。