機械学習の用語集: 公平性

このページでは、公平性に関する用語集について説明します。用語集のすべての用語については、こちらをクリックしてください。

A

属性

#fairness

機能の類義語。

機械学習の公平性では、属性は多くの場合、個人に関連する特性を表します。

自動化バイアス

#fairness

自動意思決定システムがエラーになった場合でも、自動化されていない情報よりも、自動意思決定システムによる推奨事項を優先すると、人間の意思決定者がそれを行います。

B

バイアス(倫理/公平性)

#fairness
#fundamentals

1. 特定のもの、人々、集団に対する固定観念、偏見、好意。こうしたバイアスは、データの収集と解釈、システムの設計、ユーザーによるシステム操作に影響を及ぼす可能性があります。このタイプのバイアスには、次のようなものがあります。

2. サンプリングまたはレポート手順に起因するシステムエラー。このタイプのバイアスには、次のようなものがあります。

機械学習モデルのバイアスバイアス予測バイアスと混同しないようにしてください。

C

確認バイアス

#fairness

既存の信念や仮説を確認する方法で、情報を検索、解釈、支持、想起する傾向。機械学習デベロッパーは、既存の信念を裏付ける結果に影響を与えるような方法で、誤ってデータを収集またはラベル付けする場合があります。確認バイアスは暗黙のバイアスの一種です。

テストのバイアスは確認のバイアスの一形態で、既存の仮説が確定するまで、研究者がモデルのトレーニングを継続するものです。

反事実(公平性)

#fairness
1 つ以上の機密属性を除き、分類器が最初のエンティティと同一の別の個人と同じ結果を生成するかどうかをチェックする公平性指標。反事実の公平性に関する分類器の評価は、モデルに潜在するバイアスの原因を特定する方法の一つです。

反事実の公平性に関する詳細については、『Worlds Collide: Integrating Different CounterfActual Consumptions in Fairness』をご覧ください。

カバレッジ バイアス

#fairness

選択バイアスをご確認ください。

D

同等のユーザー属性

#fairness

モデルの分類結果が特定の繊細な属性に依存していない場合に満たされる公平性指標

等式オッズ機会の等価性は、分類結果を集計する際に繊細な属性に依存しますが、特定のグラウンド トゥルースラベルの分類結果は繊細な属性に依存させません。ユーザー属性の等価性を最適化する場合のトレードオフを可視化した可視化については、「スマートな機械学習による差別の対策」をご覧ください。

多様な

#fairness

異なる人口サブグループに影響する人について不均衡な意思決定を行う。これは通常、アルゴリズムの意思決定プロセスが、一部のサブグループに他よりも大きな害を及ぼすか、または利益をもたらす状況を意味します。

たとえば、リリプリアン住宅のミニチュア住宅ローンの適格性を判断するアルゴリズムが、送付先住所に特定の郵便番号が含まれている場合、「対象外」として分類される可能性が高いとします。ビッグ エンディアン リリプティアンが、リトル エンディアン リリプティアンよりもこの郵便番号で郵送先住所を持っている可能性が高い場合、このアルゴリズムは異なる結果をもたらす可能性があります。

一方、異なる扱い方では、サブグループの特性がアルゴリズムによる意思決定プロセスへの明示的な入力である場合の不整合に焦点を当てます。

ばらばらの治療

#fairness

サブジェクトを考慮に入れます。ユーザーのサブグループごとに異なる方法で扱うように、アルゴリズムの意思決定プロセスに繊細な属性を設定します。

たとえば、リリプティアがミニチュア住宅ローンの対象となるかどうかを、ローンの申請時に指定したデータに基づいて判断するアルゴリズムについて考えてみましょう。アルゴリズムがリリプティアンのアフィリエーションをビッグエンディアンやリトル エンディアンを入力として使用している場合、その次元に沿ってバラバラのパターンを処理します。

一方、異なる結果では、サブグループがモデルへの入力であるかどうかに関係なく、アルゴリズムによるサブグループに対する社会的な影響の格差に注目します。

E

機会の平等

#fairness
公平性指標: 優先ラベル(人にとってメリットやメリットをもたらすラベル)と特定の属性について、分類器はその属性のすべての値に対してその優先ラベルを同等に予測します。つまり、機会の平等性は、機会の条件を満たす人がグループ メンバーシップに関係なく同じである可能性が高いかどうかを測定します。

たとえば、グルブダブリブ大学がリリプタン学者とブロブディナジアンの両方を厳密な数学プログラムに承認したとします。リリプタン大学の中等学校では、安定したカリキュラムのカリキュラムが提供されています。大部分の学生は大学プログラムに登録できます。ブロブディナジアンの中等学校には数学の授業がまったくないため、有資格の生徒はほとんどいません。適格性のある学生がリリプチアンかブロブディンジャン語であるかどうかに関係なく、国籍(リリプチアンまたはブロブダジアン)に関して認められる可能性であれば、「公認」の優先ラベルが平等に満たされます。

たとえば、Glubbdubdrib University に 100 人のリリプシャンと 100 人のブロディンダジアンが応募し、入学の判定は次のように行われます。

表 1. リリプティアン志願者(90% が適格)

  リードの精査が完了 見込みなし
許可 45 3
拒否済み 45 7
合計 90 10
適格な学生の入学率: 45 / 90 = 50%
不適格な学生の却下された割合: 7 / 10 = 70%
リリプティア生の入学者の割合: (45 + 3) ÷ 100 = 48%

 

表 2. ブロブディナジアン応募者(10% が適格):

  リードの精査が完了 見込みなし
許可 5 9
拒否済み 5 81
合計 10 90
資格要件を満たしている学生の割合: 5 月 10 日 = 50%
不適格な学生の割合: 81 / 90 = 90%
ブロブディナジアン大学入学者の割合: (5 + 9) ÷ 100 = 14%

上記の例では、資格のある学生が受け入れられる確率が等しくなっています。

機会の平等に関する詳細については、教師あり学習における機会の平等をご覧ください。また、「よりスマートな機械学習による差別の対策」では、機会の平等を最適化するためにトレードオフを可視化している可視化について紹介しています。

均等確率

#fairness
公平性指標。特定のラベルと属性について、その属性のすべての値に対してそのラベルが均等に分類されるかどうかを確認します。

たとえば、Glubbdubdrib University がリリプタン学者とブロブディナジアンの両方を厳密な数学プログラムに認めたとします。Lilliputian' 中等学校は堅牢なカリキュラムの数学カリキュラムを提供しており、大部分の学生は大学プログラムの対象となります。Brobdingnagians' 中等学校は数学の授業をまったく提供しないため、結果として、十分な資格を持つ生徒がごく少数しかいません。応募者がリリプシア人かブロブロディナジャン人かにかかわらず、等号の確率は満たされます。資格がある限り、プログラムへの入学が認められる可能性も同様であり、資格がない場合は否承認される可能性も同じです。

たとえば、Glubbdubdrib の大学に 100 人のリリプシャンと 100 人のブロブディナジアが応募し、次のような入学審査が行われたとします。

表 3: リリプティアン志願者(90% が適格)

  リードの精査が完了 見込みなし
許可 45 2
拒否済み 45 8
合計 90 10
適格な学生の入学率: 45 / 90 = 50%
不適格な学生の入学率: 8 / 10 = 80%
リリプティア生の入学者の割合: (45 + 2)/ 100 = 47%

 

表 4. ブロブディナジアン応募者(10% が適格):

  リードの精査が完了 見込みなし
許可 5 18
拒否済み 5 72
合計 10 90
適格な学生の入学率: 5/10 = 50%
不適格な学生の入学率: 72 / 90 = 80%
ブロブロディナギアの入学者の割合: (5 + 18)÷ 100 = 23%

資格のあるリリプタン学生とブロブディナジアン学生は、50% の確率で入学できます。また、80% の確率で非入学のリリプチアンとブロブディナギアは却下されます。

等式オッズは、「教師あり学習における機会の平等」で正式に定義されます。つまり、「予測因子「≈」は、保護された属性 A と結果 Y に関して、Y と条件が独立している場合、等式オッズを満たし、Y を条件とします。

実験者のバイアス

#fairness

確認バイアスをご覧ください。

F

公平性の制約

#fairness
アルゴリズムに制約を適用して、1 つ以上の公平性の定義が満たされるようにします。公平性の制約の例を以下に示します。

  • モデルの出力の後処理
  • 公平性指標に違反した場合のペナルティを組み込むために損失関数を変更する。
  • 最適化の問題に数学的制約を直接追加します。

公平性の指標

#fairness

測定可能な「公平性」の数学的定義。よく使用される公平性の指標は次のとおりです。

公平性の指標の多くは相互に排他的です。公平性の指標の非互換性をご覧ください。

G

グループのアトリビューション バイアス

#fairness

ある個人について真実であると仮定すると、そのグループ内の全員にも当てはまります。コンビニエンス サンプリングをデータ収集に使用すると、グループ アトリビューション バイアスの影響が悪化する可能性があります非代表的なサンプルでは、現実を反映していない属性が作成されることがあります。

グループ内同種バイアスグループ内バイアスもご覧ください。

I

暗黙のバイアス

#fairness

心理モデルや記憶に基づいて関連付けや推測を自動的に行う。暗黙のバイアスは、次の要素に影響を与える可能性があります。

  • データの収集方法と分類方法。
  • 機械学習システムの設計と開発の方法。

たとえば、結婚式写真を特定する分類器を作成する場合、エンジニアは写真内に白いドレスを使用していることを特徴として使用します。しかし、白いドレスは、特定の時代や一部の文化においてのみ、伝統的なものでした。

確認バイアスもご覧ください。

公平性指標の非互換性

#fairness

一部の公平性の概念は、相互に互換性がなく、同時に満たすことはできません。結果として、すべての ML の問題に適用できる公平性を定量化する単一の指標が存在しません。

これは気が散ると思われるかもしれませんが、公平性の指標の互換性がないからといって、公平性への取り組みが実質的でないとは限りません。特定の ML に関する問題に対して、その公平性を定義する必要があることを示唆しています。これは、そのユースケース固有の危害を防止することを目的としています。

このトピックの詳細については、公平性の(im)可能性をご覧ください。

個人の公平性

#fairness

類似する個人が同様に分類されるかどうかを確認する公平性の指標。たとえば、Brobdingnagian Academy は、同一の成績と標準化されたテストスコアを持つ 2 人の生徒が入学する可能性が平等になるように、個人の公平性を満たしたいと望んでいます。

個々の公平性は「類似性」の定義方法(この場合の成績とテストスコア)に完全に依存します。類似性の指標が重要な情報(受講者のカリキュラムの厳密さなど)を欠くと、新しい公平性の問題を引き起こすリスクがあります。

個人の公平性に関する詳細については、認識を介した公平性をご覧ください。

グループ内バイアス

#fairness

1 つのグループまたは自身の特性に対して部分的に表示されています。 テスターまたは評価者が機械学習の開発者の友人、家族、同僚で構成されている場合、グループ内バイアスによってプロダクト テストやデータセットが無効になることがあります。

グループ内バイアスは、グループ アトリビューション バイアスの一種です。グループ間の同種バイアスもご覧ください。

N

非応答バイアス

#fairness

選択バイアスをご確認ください。

O

グループ外同種バイアス

#fairness

態度、価値観、性格などの特性を比較した場合、グループ外のメンバーをグループ内メンバーよりも類似している傾向。グループ内とは、普段やり取りしている人を指します。グループ外とは、日常的にやり取りしないユーザーを指します。グループ外の属性を指定するようユーザーに求めてデータセットを作成する場合、これらの属性が微妙なニュアンスにとらわれず、グループ内の人たちがリストする属性よりもステレオタイプになる場合があります。

たとえば、リリプシャン人は、建築様式、窓、ドア、大きさの小さな違いを引用して、他のリリパチアンの家を詳細に説明するかもしれません。しかし、同じリリプシャンが、ブロブディナジアンはすべて同じ家に住んでいると宣言しているかもしれません。

グループ外同種バイアスは、グループ アトリビューション バイアスの一種です。

グループ内バイアスもご覧ください。

P

参加バイアス

#fairness

応答なしのバイアスの類義語選択バイアスをご確認ください。

後処理

#fairness
#fundamentals

モデルの実行後にモデルの出力を調整する。後処理を使用すると、モデル自体を変更することなく、公平性の制約を適用できます。

たとえば、バイナリの分類器に後処理を適用する場合、一部の属性で真陽性率がすべての属性値で同じであることを確認して、機会の平等性が維持されるように分類しきい値を設定します。

予測的パリティ

#fairness

公平性指標。特定の分類器について、対象となるサブグループと適合率の値が同等かどうかを確認します。

たとえば、大学の受け入れ数を予測するモデルは、その精度率がリリプシア人とブロブディナジアンで同じであれば、国籍の予測的同等性を満たせるようになります。

予測パリティは、予測レートパリティとも呼ばれます。

予測パリティの詳細については、公平性の定義の説明(セクション 3.2.1)をご覧ください。

予測レートでの等価性

#fairness

予測パリティの別名。

前処理

#fairness
モデルのトレーニングに使用される前のデータの処理。前処理は、英語辞書内に出現しない英語テキスト コーパスから単語を削除するだけのシンプルなものもあれば、繊細な属性と相関する属性を可能な限り排除するようにデータポイントを再表現するという複雑なものもあります。前処理によって公平性の制約を満たすことができます。

プロキシ(機密性の高い属性)

#fairness
機密性の高い属性の代わりとして使用される属性。たとえば、個人の郵便番号を収入、人種、民族の代用として使用できます。

R

レポート バイアス

#fairness

アクション、結果、プロパティについてユーザーが記述する頻度は、実際の頻度や、プロパティが個人クラスに固有の程度を反映していません。レポート バイアスは、機械学習システムが学習するデータの構成に影響を与える可能性があります。

たとえば、書籍では「笑った」という言葉が「呼吸」よりも多く使用されています。本のコーパスからの笑いと呼吸の相対頻度を推定する機械学習モデルは、笑うよりも呼吸のほうが多いと判断します。

S

サンプリング バイアス

#fairness

選択バイアスをご確認ください。

選択バイアス

#fairness

選択プロセスでサンプリング データから引き出された結論のエラー。これは、データ内で観測されたサンプルと観測されたサンプルの間に体系的な差異が生じる原因です。選択バイアスには次の種類があります。

  • カバレッジ バイアス: データセットで表される母集団は、機械学習モデルが予測を行っている母集団と一致しません。
  • サンプリング バイアス: ターゲット グループからランダムにデータを収集することはありません。
  • 非回答バイアス参加バイアス): 特定のグループのユーザーが、他のグループのユーザーとは異なるアンケート調査を無効にしています。

たとえば、映画の楽しみ方を予測する機械学習モデルを作成するとします。トレーニング データを収集するには、映画の映画館の最前列に全員でアンケートを渡し、もちろん、これはデータセットを収集する妥当な方法のように聞こえるかもしれませんが、この形式のデータ収集では、次の形式の選択バイアスが発生する可能性があります。

  • カバレッジ バイアス: 映画を見ることを選択した人口からサンプリングするため、モデルの予測において、その映画への関心が十分でないユーザーが一般化されない場合があります。
  • サンプリング バイアス: 目的の母集団(映画のすべての人々)からランダムにサンプリングするのではなく、最前線の人々のみをサンプリングしました。最前列に座っている人は他の行よりも映画に関心を持っている可能性があります。
  • 回答なしのバイアス: 一般に、意見の強い人は、オプションのアンケートに低頻度の意見よりも頻繁に回答する傾向があります。映画に関するアンケートは任意であるため、回答は通常の(ベル型の)分布よりも二モーダル分布を形成する可能性が高くなります。

繊細な属性

#fairness
法的、倫理的、社会的、個人的な理由で特別な検討の対象となるユーザー属性。

U

(デリケートな属性に対する)認識されない

#fairness

機密性の高い属性が存在するものの、トレーニング データには含まれない状況。多くの場合、機密属性はデータの他の属性と相関関係にあるため、認識されていない属性を認識したうえでトレーニングされたモデルは、その属性に関して異なる結果を負うか、他の公平性の制約に違反する可能性があります。