公平さ

公平性は、アルゴリズムによる意思決定を通じて、人種、収入、性的指向、性別などの繊細な特性に関連してエンドユーザーが経験する可能性のある不公平な結果に対処します。たとえば、採用アルゴリズムは、特定の性別や民族に関連付けられた名前を持つ応募者に対して偏見を持っている可能性がありますか?

機械学習システムが人間のバイアスを受けやすい理由については、次の動画をご覧ください。

実際の例については、Monk Skin Tone Scale を通じて Google 検索や Google フォトなどのプロダクトで肌の色調の多様性がどのように改善されたかをご覧ください。

モデルのバイアスを特定、測定、軽減するための信頼性の高い方法があります。機械学習集中講座公平性モジュールでは、公平性とバイアスの軽減手法について詳しく説明しています。

People + AI Research(PAIR)は、公平性の測定隠れたバイアスに関するインタラクティブな AI エクスプラナブルを提供し、これらのコンセプトを説明しています。ML の公平性に関連する用語の詳細については、ML 用語集: 公平性 | Google for Developers をご覧ください。