ML 用語集: 責任ある AI

このページには、責任ある AI の用語集の用語が記載されています。用語集のすべての用語については、こちらをクリックしてください。

A

属性

#responsible

feature と同義。

ML の公平性において、属性は個人に関連する特性を指すことがよくあります。

自動化バイアス

#responsible

自動意思決定システムが誤りを犯した場合でも、人間による意思決定者が自動意思決定システムによる推奨事項を、自動化なしで作成された情報よりも優先する場合。

詳細については、ML 集中講座の公平性: 偏りの種類をご覧ください。

B

バイアス(倫理/公正性)

#responsible
#fundamentals

1. 特定のこと、人、グループに対する固定観念、偏見、またはえこひいき。こうしたバイアスは、データの収集と解釈、システムの設計、ユーザーがシステムを操作する方法に影響する可能性があります。このタイプのバイアスの形式には、次のようなものがあります。

2. サンプリングや報告の手順で体系的に生じたエラー。このタイプのバイアスの形式には、次のようなものがあります。

機械学習モデルのバイアス項予測バイアスと混同しないでください。

詳細については、ML 集中講座の公平性: 偏りの種類をご覧ください。

C

確証バイアス

#responsible

既存の信念や仮説を裏付けるような形で情報を検索、解釈、好意的に扱い、思い出す傾向。ML デベロッパーは、既存の信念を裏付ける結果に影響を与える方法で、誤ってデータを収集したりラベル付けしたりする可能性があります。確証バイアスは、暗黙のバイアスの一種です。

テスト担当者のバイアスは、テスト担当者が既存の仮説が確証されるまでモデルのトレーニングを続ける確証バイアスの一種です。

反事実的公平性

#responsible
#Metric

1 つ以上の機密属性を除いて、最初の個人と同一の別の個人に対して、分類モデルが同じ結果を生成するかどうかを確認する公平性指標。反事実的公平性について分類モデルを評価することは、モデル内の潜在的なバイアスの原因を特定する 1 つの方法です。

詳しくは、次のいずれかをご覧ください。

カバレッジ バイアス

#responsible

選択バイアスをご覧ください。

D

人口統計学的等価性

#responsible
#Metric

モデルの分類結果が特定の機密属性に依存しない場合に満たされる公平性指標

たとえば、リリパット人とブロブディンナグ人が Glubbdubdrib 大学に申し込んだ場合、リリパット人の合格率とブロブディンナグ人の合格率が同じであれば、一方のグループが他方よりも平均的に資格があるかどうかに関係なく、人口統計学的パリティが達成されます。

均等化されたオッズ機会の平等とは対照的です。これらは、分類結果の集計が機密属性に依存することを許可しますが、特定の指定されたグラウンド トゥルース ラベルの分類結果が機密属性に依存することを許可しません。人口統計学的パリティの最適化におけるトレードオフを説明する可視化については、「よりスマートな機械学習による差別の是正」をご覧ください。

詳細については、ML 集中講座の公平性: 人口統計学的パリティをご覧ください。

不均衡な影響

#responsible

さまざまな人口サブグループに不均衡な影響を与える人に関する意思決定を行う。通常、これはアルゴリズムによる意思決定プロセスが、一部のサブグループに他のサブグループよりも大きな損害または利益をもたらす状況を指します。

たとえば、リリパット人のミニチュア住宅ローンの資格を判断するアルゴリズムで、郵送先住所に特定の郵便番号が含まれている場合、その人を「不適格」と分類する可能性が高いとします。リトル エンディアンのリリパット人よりもビッグ エンディアンのリリパット人のほうが、この郵便番号の住所を持っている可能性が高い場合、このアルゴリズムは不均衡な影響をもたらす可能性があります。

サブグループの特性がアルゴリズムによる意思決定プロセスの明示的な入力である場合に生じる不均衡に焦点を当てる不当な扱いとは対照的です。

差別的取り扱い

#responsible

アルゴリズムによる意思決定プロセスに被験者の機密属性を考慮し、人々のさまざまなサブグループが異なる扱いを受けるようにすること。

たとえば、リリパット人が住宅ローン申請で提供したデータに基づいて、ミニチュア住宅ローンの利用資格を判断するアルゴリズムを考えてみましょう。アルゴリズムがリリパットの所属をビッグ エンディアンまたはリトル エンディアンとして入力に使用する場合、その次元に沿って差別的な扱いが行われます。

不公平な影響(アルゴリズムによる意思決定がサブグループに及ぼす社会的影響の不公平さに焦点を当てたもの。サブグループがモデルへの入力であるかどうかは関係ない)と対照的です。

E

機会の平等

#responsible
#Metric

モデルが機密属性のすべての値について望ましい結果を平等に予測しているかどうかを評価する公平性指標。つまり、モデルの望ましい結果が陽性クラスである場合、すべてのグループで真陽性率が同じになることが目標となります。

機会の平等は、均等化されたオッズに関連しています。これは、すべてのグループで真陽性率と偽陽性率の両方が同じであることを必要とします。

Glubbdubdrib 大学が、リリパット人とブロブディンナグ人を厳格な数学プログラムに受け入れたとします。リリパットのセカンダリー スクールでは、数学の授業の充実したカリキュラムが提供されており、生徒のほとんどが大学プログラムの資格を取得しています。ブロブディンナグの学校では数学の授業がまったく提供されていないため、資格のある生徒の数がはるかに少なくなっています。リリパット人かブロブディンナグ人かに関係なく、資格のある生徒が同じ確率で入学できる場合、国籍(リリパット人またはブロブディンナグ人)に関して「合格」という優先ラベルの機会均等性が満たされます。

たとえば、Glubbdubdrib 大学に 100 人の Lilliputians と 100 人の Brobdingnagians が応募し、次のように入学が決定されるとします。

表 1. 小人症の応募者(90% が資格あり)

  リードの精査が完了 見込みなし
Admitted 45 3
不承認 45 7
合計 90 10
入学が許可された適格な学生の割合: 45/90 = 50%
入学が許可されなかった不適格な学生の割合: 7/10 = 70%
入学が許可されたリリパット人の学生の割合: (45+3)/100 = 48%

 

表 2. Brobdingnagian の応募者(10% が資格あり):

  リードの精査が完了 見込みなし
Admitted 5 9
不承認 5 81
合計 10 90
入学を許可された資格のある学生の割合: 5/10 = 50%
入学を拒否された資格のない学生の割合: 81/90 = 90%
入学を許可された Brobdingnagian 学生の合計割合: (5+9)/100 = 14%

上記の例では、リリパット人とブロブディンナグ人がどちらも 50% の確率で入学できるため、有資格の学生の入学機会の平等が満たされています。

機会均等性は満たされていますが、次の 2 つの公平性指標は満たされていません。

  • 人口統計学的パリティ: リリパット人とブロブディンナグ人が異なる割合で大学に入学している。リリパット人の学生の 48% が入学しているが、ブロブディンナグ人の学生は 14% しか入学していない。
  • 均等オッズ: 資格のあるリリパット人とブロブディンナグ人が同じ確率で入学できる一方で、資格のないリリパット人とブロブディンナグ人が同じ確率で不合格になるという追加の制約は満たされません。リリパット人の不合格率は 70% ですが、ブロブディンナグ人の不合格率は 90% です。

詳細については、ML 集中講座の公平性: 機会の平等をご覧ください。

均等オッズ

#responsible
#Metric

モデルがポジティブ クラスネガティブ クラスの両方に関して、機密属性のすべての値に対して結果を平等に予測しているかどうかを評価する公平性指標。一方のクラスのみを排他的に評価するものではありません。つまり、真陽性率偽陰性率の両方が、すべてのグループで同じである必要があります。

均等化オッズは、単一のクラス(正または負)のエラー率のみに焦点を当てた機会の平等に関連しています。

たとえば、Glubbdubdrib 大学がリリパット人とブロブディンナグ人の両方を厳格な数学プログラムに受け入れているとします。リリパットの高校では、数学の授業のカリキュラムが充実しており、ほとんどの生徒が大学プログラムの資格を取得しています。ブロブディンナグの高校では数学の授業がまったく提供されていないため、資格のある生徒ははるかに少なくなっています。応募者がリリパット人であろうとブロブディンナグ人であろうと、資格があればプログラムに合格する可能性は同じであり、資格がなければ不合格になる可能性も同じである場合、均等なオッズが満たされます。

リリパット人とブロブディンナグ人がそれぞれ 100 人ずつ Glubbdubdrib 大学に入学を申し込んだとします。入学の決定は次のように行われます。

表 3: 小人症の応募者(90% が資格あり)

  リードの精査が完了 見込みなし
Admitted 45 2
不承認 45 8
合計 90 10
入学が許可された資格のある学生の割合: 45/90 = 50%
入学が許可されなかった資格のない学生の割合: 8/10 = 80%
入学が許可されたリリパットの学生の合計割合: (45+2)/100 = 47%

 

表 4. Brobdingnagian の応募者(10% が資格あり):

  リードの精査が完了 見込みなし
Admitted 5 18
不承認 5 72
合計 10 90
合格した資格のある学生の割合: 5/10 = 50%
不合格になった資格のない学生の割合: 72/90 = 80%
合格したブロブディンナグ人の学生の合計割合: (5+18)/100 = 23%

リリパット人とブロブディンナグ人の両方で、合格した学生の 50% が合格し、不合格の学生の 80% が不合格になるため、均等なオッズが満たされています。

等しいオッズは、「Equality of Opportunity in Supervised Learning」で次のように正式に定義されています。「予測子 Ŷ が保護属性 A と結果 Y に関して等しいオッズを満たすのは、Ŷ と A が Y を条件として独立している場合です。」

実験者バイアス

#responsible

確証バイアスをご覧ください。

F

公平性に関する制約

#responsible
1 つ以上の公平性の定義が満たされるように、アルゴリズムに制約を適用すること。公平性制約の例:

  • モデルの出力を後処理する。
  • 公平性指標の違反に対するペナルティを組み込むように損失関数を変更する。
  • 最適化問題に数学的制約を直接追加する。

公平性指標

#responsible
#Metric

測定可能な「公平性」の数学的定義。よく使用される公平性指標には次のようなものがあります。

公平性に関する指標の多くは相互に排他的です。公平性に関する指標の不整合をご覧ください。

G

グループ帰属バイアス

#responsible

個人に当てはまることが、そのグループの全員に当てはまると仮定する。データ収集に便宜的サンプリングを使用すると、グループ アトリビューション バイアスの影響が拡大する可能性があります。代表的でないサンプルでは、現実を反映していない帰属が行われる可能性があります。

自分が属していないグループに対する均一性のバイアス所属グループのバイアスもご覧ください。詳細については、ML 集中講座の公平性: 偏りの種類もご覧ください。

H

過去のバイアス

#responsible

すでに世の中に存在し、データセットに組み込まれているバイアスの一種。このようなバイアスは、既存の文化的ステレオタイプ、人口統計上の不平等、特定の社会集団に対する偏見を反映する傾向があります。

たとえば、2 つの異なるコミュニティの地元の銀行から 1980 年代の過去のローン不履行データでトレーニングされた、ローン申請者がローンを不履行にするかどうかを予測する分類モデルを考えてみましょう。過去にコミュニティ A の申請者がコミュニティ B の申請者よりも 6 倍多くローンの支払いを滞納していた場合、モデルは過去のバイアスを学習し、コミュニティ A のローンの承認率が低くなる可能性があります。たとえ、コミュニティ A の滞納率が高かった過去の状況がもはや関連性がなくなったとしてもです。

詳細については、ML 集中講座の公平性: 偏りの種類をご覧ください。

I

暗黙のバイアス

#responsible

自分のメンタルモデルと記憶に基づいて、関連付けや推測を自動的に行う。暗黙のバイアスは、次のものに影響する可能性があります。

  • データの収集方法と分類方法。
  • 機械学習システムの設計と開発の方法。

たとえば、結婚式の写真を識別する分類モデルを構築する場合、エンジニアは写真に白いドレスがあるかどうかを特徴量として使用できます。ただし、白いドレスは特定の時代や文化でのみ慣習的に着用されてきました。

確証バイアスもご覧ください。

公平性指標の不整合

#responsible
#Metric

公平性の概念の中には、相互に両立せず、同時に満たすことができないものがあるという考え方。そのため、すべての ML 問題に適用できる公平性を定量化するための単一の普遍的な指標はありません。

これは落胆するようなことかもしれませんが、公平性の指標の不整合は、公平性の取り組みが無駄であることを意味するものではありません。代わりに、公平性は特定の ML 問題のコンテキストに沿って定義し、そのユースケースに固有の危害を防ぐことを目標にする必要があることを示唆しています。

公平性指標の非互換性について詳しくは、「公平性の(不)可能性について」をご覧ください。

個人の公平性

#responsible
#Metric

類似した個人が同様に分類されているかどうかを確認する公平性指標。たとえば、Brobdingnagian Academy は、成績と標準テストのスコアが同じ 2 人の生徒が同じ確率で入学できるようにすることで、個人の公平性を満たしたいと考えています。

個人の公平性は「類似性」(この場合は成績とテストの点数)の定義に完全に依存します。類似性指標で重要な情報(生徒のカリキュラムの厳しさなど)が欠落していると、新たな公平性の問題が生じる可能性があります。

個人の公平性について詳しくは、「認識による公平性」をご覧ください。

内集団バイアス

#responsible

自分のグループや自分の特性に偏見を持つこと。テスターや評価者が ML デベロッパーの友人、家族、同僚で構成されている場合、内集団バイアスによってプロダクト テストやデータセットが無効になる可能性があります。

所属グループのバイアスは、グループ帰属バイアスの一種です。自分が属していないグループに対する均一性のバイアスもご覧ください。

詳細については、ML 集中講座の公平性: 偏りの種類をご覧ください。

N

無回答バイアス

#responsible

選択バイアスをご覧ください。

O

自分が属していないグループに対する均一性のバイアス

#responsible

態度、価値観、性格特性などの特性を比較する際に、内集団のメンバーよりも外集団のメンバーを類似しているとみなす傾向。内集団とは、定期的に交流する人々のことです。外集団とは、定期的に交流しない人々のことです。アウトグループに関する属性を回答者に提供してもらうことでデータセットを作成した場合、その属性は、参加者がイングループのメンバーについて挙げる属性よりも、ニュアンスが少なく、ステレオタイプ化されている可能性があります。

たとえば、リリパット人は他のリリパット人の家について、建築様式、窓、ドア、サイズなどのわずかな違いを挙げて、詳細に説明するかもしれません。しかし、同じリリパット人は、ブロブディンナグ人はすべて同じ家に住んでいると宣言するかもしれません。

自分が属していないグループに対する均一性のバイアスは、グループ帰属バイアスの一種です。

内集団バイアスもご覧ください。

P

参加バイアス

#responsible

無回答のバイアスの同義語。選択バイアスをご覧ください。

後処理

#responsible
#fundamentals

モデルの実行にモデルの出力を調整する。後処理を使用すると、モデル自体を変更せずに公平性制約を適用できます。

たとえば、バイナリ分類モデルに後処理を適用して、分類しきい値を設定し、真陽性率がその属性のすべての値で同じであることを確認することで、一部の属性の機会の平等を維持できます。

予測のパリティ

#responsible
#Metric

特定の分類モデルについて、考慮対象のサブグループの適合率が同等かどうかをチェックする公平性指標

たとえば、大学の合格を予測するモデルの場合、リリパット人とブロブディンナグ人の適合率が同じであれば、国籍に関する予測パリティを満たします。

予測パリティは、予測率パリティとも呼ばれます。

予測パリティの詳細については、「公平性の定義の説明」(セクション 3.2.1)をご覧ください。

予測料金同等性

#responsible
#Metric

予測パリティの別名。

前処理

#responsible
モデルのトレーニングに使用する前にデータを処理すること。前処理は、英語のテキスト コーパスから英語の辞書にない単語を削除するような単純なものから、機密属性と相関関係のある属性をできるだけ排除するようにデータポイントを再表現するような複雑なものまであります。前処理は、公平性制約を満たすのに役立ちます。

proxy(機密属性)

#responsible
機密属性の代わりに使用される属性。たとえば、個人の郵便番号が、その個人の収入、人種、民族の代理として使用されることがあります。

R

報告バイアス

#responsible

アクション、結果、プロパティについて人々が書く頻度が、実世界の頻度や、プロパティが個人のクラスの特徴である程度を反映していない。報告バイアスは、ML システムが学習するデータの構成に影響する可能性があります。

たとえば、書籍では「笑った」という単語は「呼吸した」という単語よりも一般的です。書籍コーパスから笑いと呼吸の相対頻度を推定する ML モデルは、笑いの方が呼吸よりも一般的であると判断するでしょう。

詳細については、ML 集中講座の公平性: 偏りの種類をご覧ください。

S

サンプリング バイアス

#responsible

選択バイアスをご覧ください。

選択バイアス

#responsible

データで観測されたサンプルと観測されなかったサンプルの間に体系的な違いを生み出す選択プロセスが原因で、サンプリングされたデータから導き出された結論に生じるエラー。選択バイアスには次の形態があります。

  • カバレッジ バイアス: データセットで表される母集団が、ML モデルが予測を行う母集団と一致しない。
  • サンプリング バイアス: データが対象グループからランダムに収集されていない。
  • 無回答バイアス参加バイアスとも呼ばれます): 特定のグループのユーザーがアンケートへの参加を辞退する割合が、他のグループのユーザーと異なる。

たとえば、映画の楽しさを予測する ML モデルを作成するとします。トレーニング データを収集するために、映画館の最前列にいる全員にアンケートを配布します。一見すると、これはデータセットを収集する合理的な方法のように思えますが、この形式のデータ収集では、次のような選択バイアスが生じる可能性があります。

  • カバレッジ バイアス: 映画を視聴したユーザーの母集団からサンプリングすると、モデルの予測が、映画にそれほど関心を示していないユーザーに一般化されない可能性があります。
  • サンプリング バイアス: 意図した母集団(映画館にいるすべての人)からランダムにサンプリングするのではなく、最前列にいる人だけをサンプリングしました。前列に座っている人は、他の列に座っている人よりも映画に興味がある可能性があります。
  • 無回答バイアス: 一般的に、意見の強い人は、意見の弱い人よりも任意回答のアンケートに回答する傾向があります。映画のアンケートは任意であるため、回答は正規分布(ベル型分布)よりも二峰性分布になる可能性が高くなります。

機密情報に関する属性

#responsible
法的、倫理的、社会的、個人的な理由で特別な配慮がなされる人間の属性。

U

認識不能(機密属性)

#responsible

機密属性が存在するが、トレーニング データに含まれていない状況。機密属性はデータの他の属性と相関していることが多いため、機密属性を認識せずにトレーニングされたモデルでも、その属性に関して不公平な影響が生じたり、他の公平性制約に違反したりする可能性があります。