機械学習の用語集: 公平性

このページでは、公平性に関する用語集の用語について説明します。すべての用語集の用語については、こちらをクリックしてください。

A

属性

#fairness

feature と同義。

機械学習の公平性では、属性は多くの場合、個人に関連する特性を指します。

自動化バイアス

#fairness

自動の意思決定システムに誤りがある場合でも、自動の意思決定システムが提供する推奨事項が、自動化されていない情報よりも優先される。

B

バイアス(倫理/公平性)

#fairness
#fundamentals

1. もの、人、グループに対する固定観念や、偏見、支持。こうしたバイアスは、データの収集と解釈、システムの設計、ユーザーによるシステムの操作に影響を与える可能性があります。この種のバイアスには次のようなものがあります。

2. サンプリングまたはレポート手順に起因する体系的なエラー。この種のバイアスには次のようなものがあります。

機械学習モデルにおけるバイアス項予測バイアスと混同しないようにしてください。

C

確認バイアス

#fairness

情報を検索、解釈、支持、記憶する傾向があり、既存の信念や仮説が裏付けられている。機械学習の開発者が、既存の信念をサポートする結果に影響を与える方法で、誤ってデータを収集またはラベル付けする可能性があります。確認バイアスは「暗黙的なバイアス」の一種です。

テスト担当者のバイアスは確認バイアスの一種であり、既存の仮説が確認されるまでモデルのトレーニングを継続します。

反事実的公平性

#fairness
公平性指標。分類器が 1 つ以上の個人と同一の結果を生成するかどうかをチェックします。ただし、1 つ以上の機密性の高い属性に関しては例外です。モデルに潜在的なバイアスの原因を特定する方法の一つは、反事実的公平性の分類器の評価です。

反事実的公平性の詳細については、公平性におけるさまざまな反事実的仮定の統合時をご覧ください。

カバレッジ バイアス

#fairness

選択バイアスをご覧ください。

D.

ユーザー層の等価性

#fairness

モデルの公平性指標。モデルの分類結果が、指定された機密属性に依存しない場合に満たされます。

たとえば、リブピディアンとブロブディナジアンがグルブドゥブドリブ大学に適用される場合、1 つのグループが他のグループよりも資格が高いかどうかに関係なく、入学するリリプティアン人の割合がブロブドナジアンの割合と同じであれば、人口平等性が達成されます。

一方、平等なオッズ機会の平等は、分類結果が集約された属性に依存するものの、指定されたグラウンド トゥルースのラベルの分類結果が繊細な属性に依存できないようにするものです。ユーザー属性の等価性を最適化する際のトレードオフを可視化した可視化については、よりスマートな機械学習による差別の排除をご覧ください。

まったく異なる影響

#fairness

母集団のサブグループを変えると、バランスが悪く、決定が不均衡になります。これは通常、アルゴリズムの意思決定プロセスが、一部のサブグループに悪影響を及ぼすか、またはサブグループよりも大きな利益をもたらす状況を指します。

たとえば、リリプティアの住宅ローンの条件を判定するアルゴリズムが、住所に特定の郵便番号が含まれている場合に「対象外」と分類される可能性が高くなるとします。たとえば、リトル エンリアン様式の方がリトル エンリアン様式よりも郵便番号が多くなる傾向がある場合、このアルゴリズムは異なる影響を及ぼす可能性があります。

一方、異なる処理では、サブグループの特性がアルゴリズムによる意思決定プロセスへの明示的な入力である場合の相違に焦点を当てます。

異なる種類の処理

#fairness

被験者の機密性の高い属性をアルゴリズムの意思決定プロセスに組み込み、ユーザーのサブグループごとに扱い方を変えるようにします。

たとえば、リリプティアの人々がローン申請で提供するデータに基づいて、ミニチュア住宅ローンの利用資格を判断するアルゴリズムについて考えてみましょう。このアルゴリズムで、ビッグ エンディアンまたはリトル エンディアンが入力としてリリプチアン関係を使用している場合、この次元に沿ってまったく異なる扱いが行われます。

サブグループに対するモデルの決定が社会的決定に与える影響の相違に焦点を当てた異なる影響とは対照的です。

E

機会の平等

#fairness
優先ラベル(人にメリットをもたらす、またはメリットを得られるラベル)と特定の属性について、分類器がその属性の値のすべての値に対してそのラベルを同等に予測するかどうかをチェックする公平性指標。つまり、機会の平等は、機会の資格を満たす人が、グループ メンバーに関係なく、の機会に平等に適用される可能性を測定するものです。

たとえば、グルブドゥブドリブ大学が、リリプティアヌスとブロブディナジアンの両方に厳格な数学プログラムを認めているとします。リリプティアの中等学校は充実した数学カリキュラムを備えており、大部分の学生は大学プログラムの資格を持っています。ブロブディナージの中等学校では数学の授業が提供されていないため、その分の生徒数はごくわずかです。リリプチア語とブロブロディナジアンのどちらであっても、資格のある学生が平等に認められる可能性が高い場合、国籍(リリプチア語またはブロブディナジアン)に関して「認められる」というラベルに対して機会の平等が満たされます。

たとえば、100 人のリリプチアン教徒と 100 人のブロブディナジアがグルブドゥブリブ大学に応募し、入学に関する決定が下されたとします。

表 1. リリプティアン応募者(90% が認定)

  リードの精査が完了 見込みなし
参加可 45 3
不承認 45 7
合計 90 10
認定された学生の割合: 45/90 = 50%
不適格だった学生の割合: 7/10 = 70%
受け入れられたリリピットの学生の割合: (45+3)÷ 100 = 48%

 

表 2. ブロブディナジアの応募者(10% が認定)

  リードの精査が完了 見込みなし
参加可 5 9
不承認 5 81
合計 10 90
認定された学生の割合: 5/10 = 50%
不適格だった学生の割合: 81/90 = 90%
入学したブロブドナニアの学生の割合: (5 + 9)/ 100 = 14%

上の例は、学位の取得が妥当な学生が、50% の確率で認定を受けることができるという、等しく満たされています。

機会の平等について詳しくは、教師あり学習における機会の平等をご覧ください。また、機会の平等に向けて最適化するときのトレードオフを可視化したものについては、よりスマートな機械学習による差別の"をご覧ください。

イコライズされたオッズ

#fairness
公平性指標。特定のラベルと属性について、分類器がその属性のすべての値に対してラベルを同等に予測するかどうかをチェックします。

たとえば、グルブドゥブドリブ大学が、リリプティアヌスとブロブディナジアンの両方に厳格な数学プログラムを認めているとします。リリプティアの中等学校は充実した数学カリキュラムを備えており、大部分の学生は大学プログラムの資格を持っています。ブロブディナジアの中等学校は数学の授業を提供しておらず、その結果、資格を有する学生の数がかなり少なくなっています。応募者がリリプチアンとブロブディナジアンのどちらでも、プログラムに承認される可能性は同様であり、認定されない場合も同様に拒否されます。

たとえば、100 名のリリプチアン教徒と 100 人のブロブディナジア教徒がグルブドゥブドリブ大学に応募し、入学の決定が以下のように行われたとします。

表 3: リリプティアン応募者(90% が認定)

  リードの精査が完了 見込みなし
参加可 45 2
不承認 45 8
合計 90 10
認定された学生の割合: 45/90 = 50%
不適格だった学生の割合: 8/10 = 80%
受け入れられたリリプティアンの学生の割合: (45+2)÷ 100 = 47%

 

表 4. ブロブディナジアの応募者(10% が認定)

  リードの精査が完了 見込みなし
参加可 5 18
不承認 5 72
合計 10 90
認定された学生の割合: 5/10 = 50%
不適格だった学生の割合: 72/90 = 80%
入学したブロブドナニアの学生の割合: (5 + 18)/ 100 = 23%

資格のあるリリプチアン学生とブロブドナジアンの学生は 50% の確率で合格し、資格を満たしていないリリプチアン生徒とブロブディナジアンには 80% の確率で却下されます。

等価オッズは、教師あり学習における機会の平等で次のように定義されています。予測子は、保護された属性 A と結果 Y に関して等しくオッズを満たします。

テスト担当者のバイアス

#fairness

確認バイアスをご覧ください。

F

公平性の制約

#fairness
アルゴリズムに制約を適用して、1 つ以上の公平性の定義が満たされるようにする。公平性の制約の例:

  • モデルの出力の後処理
  • 損失関数を変更して、公平性指標に違反するペナルティを組み入れます。
  • 最適化の問題に数学的制約を直接追加する。

公平性の指標

#fairness

「測定可能な」「公平性」の数学的定義。 よく使用される公平性指標には次のようなものがあります。

公平性の指標の多くは相互に排他的です。公平性の指標の非互換性をご覧ください。

G

グループのアトリビューション バイアス

#fairness

ある個人について真実であると仮定しても、そのグループ内のすべての人に当てはまります。データ収集にコンビニエンス サンプリングを使用すると、グループ アトリビューション バイアスの影響がさらに増す可能性があります。非代表的なサンプルでは、現実が反映されないアトリビューションが行われる場合があります。

グループ内同種バイアスグループ内バイアスもご覧ください。

I

暗黙的なバイアス

#fairness

メンタルモデルと思い出に基づいて、関連付けや仮定を自動的に作成する。暗黙的なバイアスは以下に影響する可能性があります。

  • データの収集方法と分類方法。
  • 機械学習システムの設計と開発の方法。

たとえば、結婚式写真を識別するための分類器を構築する場合、エンジニアは写真内で白いドレスを着用したものを特徴として使用できます。ただし、白いドレスは、特定の時代や特定の文化の中でのみ、伝統的でした。

確認バイアスもご覧ください。

公平性指標の非互換性

#fairness

公平性の概念には相容れないものがあり、同時に満たすことができないという考え方。そのため、すべての ML 問題に適用できる公平性を定量化できる単一の指標はありません。

これは推奨される措置ではないと思われるかもしれませんが、公平性の指標に互換性がないことは、公平性の取り組みが実践的であることを意味するものではありません。代わりに、公平性は、特定の ML の問題に関して、そのユースケースに固有の損害を防止することを目的に、定義する必要があることを推奨します。

このトピックの詳細については、公平性の点における考慮事項をご覧ください。

個人の公平性

#fairness

類似する個人が同様に分類されるかどうかを確認する公平性指標。たとえば、ブロブドナジアン アカデミーは、同じ成績と標準化されたテストスコアを持つ 2 人の生徒が入学する可能性を平等に得られるようにすることで、個人の公平性を保ちたいと考えています。

個々の公平性は「類似性」(ここでは成績とテストスコア)の定義方法に完全に依存します。類似性指標が重要な情報(学生のカリキュラムの厳しさなど)を見逃すと、新しい公平性の問題が生じるリスクがあります。

個々の公平性について詳しくは、「公平性を通じた公平性」をご覧ください。

グループ内バイアス

#fairness

自身のグループに対して、または自分自身の特性に対して偏りを示すこと。 テスターまたは評価者が機械学習デベロッパーの友人、家族、同僚で構成されている場合、グループ内バイアスはプロダクト テストまたはデータセットを無効にすることがあります。

グループ内バイアスはグループ アトリビューション バイアスの一形態です。グループ外同種バイアスもご覧ください。

N

非応答バイアス

#fairness

選択バイアスをご覧ください。

O

アウトグループ型の同種バイアス

#fairness

態度、価値観、性格などの特性を比較した場合、グループ外のメンバーをグループ内メンバーと同じにする傾向があります。「グループ内」とは、普段やり取りしている人を指します。「グループ外」とは、日常的にやり取りしていないユーザーを指します。アウトグループに関する属性の入力を求めることでデータセットを作成する場合、これらの属性は、グループ内のグループ ユーザーに対する属性よりも微妙で、固定されていない場合があります。

たとえば、リリプティア人は、建築スタイル、窓、ドア、サイズにわずかな違いがあると述べて、他のリリプチアン家の家を詳しく説明できます。ただし、同じリリプチアン人は単に、ブロブディナジアがすべて同じ家に住んでいると宣言している場合があります。

アウトグループ同種バイアスは、グループ アトリビューション バイアスの一形態です。

グループ内バイアスもご覧ください。

P

参加バイアス

#fairness

非応答バイアスの類義語。選択バイアスをご覧ください。

後処理

#fairness
#fundamentals

モデルの実行後にモデルの出力を調整する。後処理を使用すると、モデル自体を変更することなく、公平性の制約を適用できます。

たとえば、一部の属性で機会の平等が維持されるように分類属性を設定して、後処理をバイナリ分類器に適用し、その属性のすべての値に真陽性率が同じであることを確認できます。

予測パリティ

#fairness

公平性指標特定の分類器について、適合率が比較検討中かどうかがチェックされます

たとえば、大学の受け入れ率を予測するモデルは、リリプティアヌスとブロブディナジアの精度が同一である場合に、国籍に対する予測的パリティを満たすことになります。

予測パリティは、予測レートパリティとも呼ばれます。

予測パリティの詳細については、公平性の定義の説明(セクション 3.2.1)をご覧ください。

予測レート パリティ

#fairness

予測パリティの別名。

前処理

#fairness
モデルのトレーニングに使用する前のデータの処理。前処理は、英語の辞書にない英語のテキスト コーパスから単語を削除するような単純なものもあれば、機密性の高い属性と相関する属性を可能な限り排除するような方法でデータポイントを再表現するような複雑な場合もあります。前処理は公平性の制約を満たすために役立ちます。

プロキシ(機密性の高い属性)

#fairness
機密性の高い属性の代わりとして使用する属性。たとえば、個人の郵便番号は収入、人種、民族の代用として使用できます。

(右)

報告バイアス

#fairness

ユーザーがアクション、結果、プロパティについて記述する頻度は、現実の頻度や、プロパティがクラスの人物の特性をどの程度反映しているかを反映するものではありません。報告バイアスは、機械学習システムが学習するデータの構成に影響を与える可能性があります。

たとえば、書籍では「笑った」という言葉が一般的です。本のコーパスから笑いと呼吸の相対的な頻度を推定する機械学習モデルは、笑いのほうが呼吸よりも一般的であると判断します。

S

サンプリング バイアス

#fairness

選択バイアスをご覧ください。

選択バイアス

#fairness

データで観測されたサンプルと観測されないサンプルとの間に体系的な違いを生成する選択プロセスに起因する、サンプリングされたデータから引き出された結論のエラー。選択バイアスには次の形態があります。

  • カバレッジ バイアス: データセットで表される母集団は、機械学習モデルが予測を行っている母集団と一致しません。
  • サンプリング バイアス: ターゲット グループからランダムにデータが収集されることはありません。
  • 非回答バイアス(参加バイアスとも呼ばれます): 特定のグループのユーザーが、他のグループのユーザーとアンケートへの参加率が異なります。

たとえば、映画の楽しさを予測する機械学習モデルを作成し、トレーニング データを収集するには、映画を上映する映画館の最前列に全員にアンケートを渡します。とは言え、データセットを収集するには妥当なように思えるかもしれませんが、このようなデータ収集では、次のような選択バイアスが生じる場合があります。

  • カバレッジ バイアス: 映画を見ることを選択したユーザー層からサンプリングした場合、モデルの予測では、映画にそのレベルで関心を示していないユーザーには一般化されないことがあります。
  • サンプリング バイアス: 対象母集団(映画のすべての人物)からランダムにサンプリングするのではなく、最前線の人々のみをサンプリングしました。たとえば、最前列に座っている人は他の行よりも映画に興味を持っている可能性があります。
  • 非回答バイアス: 一般に、肯定的な意見を持つ人は、軽度の意見を持つユーザーよりも、任意で行われるアンケートに回答する傾向があります。この映画アンケートは任意であるため、回答が正規(ベル型)の分布よりもバイモーダル分布になる可能性が高くなります。

繊細な属性

#fairness
法的、倫理的、社会的、個人的な理由で特に考慮される場合があります。

U

認識できない(機密性の高い属性に対して)

#fairness

機密性の高い属性は存在するが、トレーニング データには含まれない状況。多くの場合、機密性の高い属性はデータの他の属性と相関しているため、その属性を認識せずにトレーニングしたモデルは、その属性に関してまったく異なる影響を及ぼすか、他の公平性の制約に違反する可能性があります。