公平さ
コレクションでコンテンツを整理
必要に応じて、コンテンツの保存と分類を行います。
公平性は、アルゴリズムによる意思決定を通じて、人種、収入、性的指向、性別などの繊細な特性に関連してエンドユーザーが経験する可能性のある不公平な結果に対処します。たとえば、採用アルゴリズムは、特定の性別や民族に関連付けられた名前を持つ応募者に対して偏見を持っている可能性がありますか?
機械学習システムが人間のバイアスを受けやすい理由については、次の動画をご覧ください。
実際の例については、Monk Skin Tone Scale を通じて Google 検索や Google フォトなどのプロダクトで肌の色調の多様性がどのように改善されたかをご覧ください。
モデルのバイアスを特定、測定、軽減するための信頼性の高い方法があります。機械学習集中講座の公平性モジュールでは、公平性とバイアスの軽減手法について詳しく説明しています。
People + AI Research(PAIR)は、公平性の測定と隠れたバイアスに関するインタラクティブな AI エクスプラナブルを提供し、これらのコンセプトを説明しています。ML の公平性に関連する用語の詳細については、ML 用語集: 公平性 | Google for Developers をご覧ください。
特に記載のない限り、このページのコンテンツはクリエイティブ・コモンズの表示 4.0 ライセンスにより使用許諾されます。コードサンプルは Apache 2.0 ライセンスにより使用許諾されます。詳しくは、Google Developers サイトのポリシーをご覧ください。Java は Oracle および関連会社の登録商標です。
最終更新日 2025-07-27 UTC。
[[["わかりやすい","easyToUnderstand","thumb-up"],["問題の解決に役立った","solvedMyProblem","thumb-up"],["その他","otherUp","thumb-up"]],[["必要な情報がない","missingTheInformationINeed","thumb-down"],["複雑すぎる / 手順が多すぎる","tooComplicatedTooManySteps","thumb-down"],["最新ではない","outOfDate","thumb-down"],["翻訳に関する問題","translationIssue","thumb-down"],["サンプル / コードに問題がある","samplesCodeIssue","thumb-down"],["その他","otherDown","thumb-down"]],["最終更新日 2025-07-27 UTC。"],[],[]]