機器學習詞彙表:公平性

本頁麵包含 Fairness 詞彙表字詞。如需所有詞彙表字詞,請按這裡

A

屬性

#fairness

feature 的同義詞。

在機器學習的公平性中,屬性通常會指與個人相關的特性。

自動化偏誤

#fairness

即使自動化決策系統出錯,決策者仍偏好自動化決策系統做出的推薦,而不是沒有自動化功能提供的資訊。

B

偏誤 (倫理/公平性)

#fairness
#fundamentals

1. 對某些事物、人或群體發出刻板、偏見或好感。這些偏誤會影響資料的收集和解讀、系統設計,以及使用者與系統互動的方式。這類偏誤類型包括:

2. 取樣或回報程序造成的系統錯誤。這類偏誤類型包括:

請勿與機器學習模型中的偏誤詞預測偏誤混淆。

C

確認偏誤

#fairness

搜尋、解讀、偏好和喚回資訊,並能證明資訊早已既定的想法或假設。機器學習開發人員可能會在無意間收集資料或為其加上標籤,以影響結果支持其現有理念。確認偏誤是一種隱含偏見

「實驗者偏誤」是一種確認偏誤,會讓實驗者持續訓練模型,直到確認現有的假設為止。

反事實公平

#fairness

一個「公平性指標」,可檢查分類器是否會為某一個人和第一個完全相同的每個人產生同樣的結果,但除了一或多個敏感屬性以外。在模型中呈現潛在偏誤來源的一種方法,就是評估分類器是否符合反事實公平性。

如需對反事實公平性的相關詳細討論,請參閱「When Worlds Collide: Ingrating Counterfactual 假設 s in Fairness」(在公平性中整合不同假設) 一文。

涵蓋率偏誤

#fairness

請參閱選取偏誤

D

客層一致

#fairness

如果模型分類的結果不依賴特定敏感屬性,則符合的公平性指標

例如,如果自由度

等效機率機會平等性不同。前者可讓匯總結果依附於敏感屬性,但不允許特定指定的「實際資料」標籤使用機密屬性的分類結果。如要以視覺化方式瞭解進行客層一致性的優缺點,請參閱「運用更聰明的機器學習攻擊歧視」一文。

不同影響

#fairness

對會影響不同群體的群體的人做決定這通常是指演算法決策程序對某些子族群造成的傷害或利益。

舉例來說,假設演算法判斷 Lilliputian 符合微型房屋貸款資格的演算法,如果其郵寄地址含有特定郵遞區號,則較有可能將他們歸類為「不符資格」。如果 Big-Endian Lilliputians 使用此郵遞區號地址的地址較 Little-Endian Lilliputians 更容易,則這個演算法可能會產生差異影響。

不同的處理方式相反,後者著重於分析時,如果子群組特徵是明確輸入演算法的決策過程,就會造成差異。

不同治療

#fairness

將主體的「敏感屬性」納入演算法的決策過程,藉此以不同方式處理不同子群組的人。

例如,假設有一個演算法,根據莉莉普達人在貸款申請中提供的資料,判斷該人是否符合迷你房屋貸款的資格。如果演算法使用 Lilliputian 的聯盟關係做為 Big-Endian 或 Little-Endian 的輸入內容,就會針對該維度形成不同的治療。

相較之下,差異性影響則著重於演算法決策對子群組造成的社會影響差異,無論這些子群組是否為模型的輸入內容都一樣。

E

機會平等

#fairness

這個「公平性指標」可用於評估模型是否同樣針對敏感屬性的所有值,均能同時預測預期結果。換句話說,如果模型的理想結果是「陽性類別」,目標就會是所有群組的「真陽率」均相同。

機會平等與等於的可能性有關,這需要「同時」所有群組的真陽率和偽陽率必須相同。

假設格盧布杜比得布大學 (Glubbdubdrib University) 承認利利普特人和布洛丁納吉人加入嚴格的數學計畫。利利浦大學的中學提供完善的數學課程,且絕大多數學生皆符合大學計畫的入學資格。身心障礙學生的中學根本 根本不提供數學課程如果合格學生同樣有可能接受國籍 (利利波特人或布洛金納吉),只要符合國籍 (Lilliputian 或 Brobdingnagian) 偏好的「已獲準」標籤,即符合平等機會的平等性。

舉例來說,假設 Glubbdubdrib 大學有 100 名 Lilliputians 和 100 名布魯金納加工分,而入學決策如下:

表 1. Lilliputian 申請者 (90% 符合資格)

  晉級 不合格
已獲準 45 3
已拒絕 45 7
總計 90 10
認可的合格學生百分比:45/90 = 50%
遭拒的合格學生百分比:7/10 = 70%
認識的 Lilliputian 學生總百分比:(45+3)/100 = 48%

 

表 2. Brobdingnagian 申請者 (10% 符合資格):

  晉級 不合格
已獲準 5 9
已拒絕 5 81
總計 10 90
認可的合格學生百分比:5/10 = 50%
遭拒的不合格學生百分比:81/90 = 90%
參賽學生比例:(5+9)/100 = 14%

上述範例滿足了合格學生的平等機會,因為合格的 Lilliputians 和 Brobdingnagians 都有 50% 的接受機會。

儘管滿足機會的平等性,但以下兩項公平性指標並未滿足:

  • 客層一致:利利波特幅員和布羅丁納吉人以不同的費率入學,48% 的立場學生獲得參賽資格,但只有 14% 的允許學生獲得入選資格。
  • 均等機率:雖然合格的 Lilliputian 和 Brobdingnagian 學生也有同樣入場的機會,但若不合格的利利波特和布洛丁納吉夫,同樣會遭到拒絕。不合格的 Lilliputians 的拒絕率達 70%,而不合格的布魯克丁納犬則拒絕率達 90%。

如需進一步探討機會平等的相關討論,請參閱「監督式學習中的機會的平等」。另請參閱「以更聰明的機器學習攻擊歧視」一文,以視覺化方式瞭解在最佳化機會品質時權衡利弊。

等值相等

#fairness

這個公平性指標可評估模型對於敏感屬性所有值的預測結果是否平等,且同時適用於正類別負類別,而不只是單一類別,還是其他類別。也就是說,所有群組的「真陽率」「偽陰性率」應相同。

均等機率與「機會平等相關,後者僅聚焦於單一類別 (陽性或負數) 的錯誤率。

例如,假設格盧布杜比得布大學 (Glubbdubdrib University) 不僅承認利爾帕特人和布布丁納加大學,在嚴格的數學計畫中。利比高中的中學提供完善的數學課程,且絕大多數學生皆符合大學計畫的入學資格。Brobdingnagians 的中學完全沒有提供數學課程,因此,其合格學生人數大幅減少。所謂均等機率,前提是申請者無論申請者是 Lilliputian 或 Braobdingnagian,只要符合資格,則參與計畫的機會也同樣等同於獲準加入計畫的機會;若不符資格,則可能遭拒絕。

假設 Glubbdubdrib 大學有 100 名 Lilliputians 和 100 名布魯金納加工人,而入學決策程序如下:

表 3. Lilliputian 申請者 (90% 符合資格)

  晉級 不合格
已獲準 45 2
已拒絕 45 8
總計 90 10
認可的合格學生百分比:45/90 = 50%
遭拒的合格學生百分比:8/10 = 80%
認識的 Lilliputian 學生總百分比:(45+2)/100 = 47%

 

表 4. Brobdingnagian 申請者 (10% 符合資格):

  晉級 不合格
已獲準 5 18
已拒絕 5 72
總計 10 90
認可的合格學生百分比:5/10 = 50%
遭拒的不合格學生百分比:72/90 = 80%
參賽學生比例:(5+18)/100 = 23%

合格的 Lilliputian 和 Brobdingnagian 學生都有 50% 的接受機會,而不合格的利利普特人和布洛丁納吉人則有 80% 的機率會遭到拒絕。

均等機率通常在「監督式學習中的機會平等」一節中定義,定義如下:「predictor Ú satisatisatisial t with Protected attribute A and when tatt and A」,則在 Y 上有條件式的 A 結果。」

實驗者偏誤

#fairness

請參閱「確認偏誤一節。

F

公平性限制

#fairness
將限制套用至演算法,確保滿足一或多個公平的定義。公平性限制的例子包括:

公平性指標

#fairness

可評估的「公平性」數學定義。一些常用的公平性指標包括:

許多公平性指標彼此互斥;請參閱公平性指標的相容性

G

團體歸因偏誤

#fairness

假設個人的正確性,對該群組中的每個人也會如此。如果使用方便取樣收集資料,群組歸因偏誤會造成的影響可能會加劇。在非代表性的樣本中,作者可能會無法反映真實情況。

另請參閱「外群組同質性偏誤」「群組內偏誤」

H

歷史偏誤

#fairness

已經存在於世界中的一種「偏誤」,並已進入資料集。這些偏見往往會反映現有的文化刻板印象、客層不等性,以及對特定社會群體的偏見。

舉例來說,假設有一個分類模型能預測貸款申請者是否預設會借貸,此模型是根據兩個不同社區中 1980 年代當地銀行提供的歷來貸款預設資料訓練而成。如果過往社群 A 申請者的貸款金額,比社群 B 申請者的可能性高出 6 倍,此模型可能會學習歷來偏誤,進而降低模型核准社群 A 貸款的可能性,即使造成該社區預設利率較高的歷史條件已失去相關性亦然。

I

隱性偏誤

#fairness

根據自己的思想模型和記憶,自動建立關聯或假設。隱性偏誤會影響下列項目:

  • 資料的收集和分類方式。
  • 機器學習系統的設計及開發方式。

舉例來說,在建構用於識別婚禮相片的分類器時,工程師可能會使用相片中呈現白色洋裝的特徵。然而,白色洋裝只在特定時代和某些文化中定向。

另請參閱「確認偏誤

公平性指標的相容性

#fairness

某些公平性的概念彼此互不相容,無法同時滿足。因此,沒有任何一個通用指標可量化公平性,可適用於所有機器學習問題。

儘管這可能不是人所樂見,但公平性指標並不代表一切都十分順利。相反地,它表示必須針對特定機器學習問題,以情境方式定義公平性,目標是防止對其用途造成特定傷害。

如需關於此主題的詳細討論,請參閱「有關公平性」的說明。

個人公平性

#fairness

可檢查類似人士是否以類似方式分類的公平性指標。例如,Brobdingnagian Academy 會希望確保兩名成績相同與標準化測驗分數的學生都相等,能夠滿足個人的公平性。

請注意,個人公平性完全取決於您對「相似性」的定義 (在此例中為成績及測驗分數),如果相似度指標缺少重要資訊 (例如學生課程的嚴謹),您就會面臨新的公平性問題。

如要進一步探討個人公平性,請參閱「透過品牌認知公平性」一文。

團體內偏誤

#fairness

向自身群體或自身特徵展現部分特徵。如果測試人員或評分者包含機器學習開發人員的朋友、家人或同事,則群組內偏誤可能會使產品測試或資料集失效。

群組內偏誤是一種群組歸因偏誤。另請參閱「外團體同質性偏誤」。

N

無回應偏誤

#fairness

請參閱選取偏誤

O

外團體同質偏誤

#fairness

在比較態度、值、人格特質和其他特性時,對外群組成員的特徵比群組成員更重要。「群組內」指的是您經常互動的使用者;「out-group」是您不常互動的使用者。建立資料集時,請要求使用者提供與群組外的相關屬性,這些屬性的細微度可能較不精細,且較刻板印象則比參與者向群組成員列出的屬性更緊密。

例如,Lilputians 可能會詳細描述其他 Lilliputians 的房屋,引用了架構風格、窗戶、門和大小的細微差異。然而,相同的 Lilliputians 可能會直接宣告,布魯克丁納犬均位於相同的房屋中。

外群組同質偏誤是一種群組歸因偏誤

另請參閱群組內偏誤

P

參與偏見

#fairness

非回應偏誤的同義詞。請參閱選取偏誤

後續處理

#fairness
#fundamentals

調整模型執行「之後」,調整模型的輸出內容。 後續處理可用於強制執行公平性限制,而不必自行修改模型。

舉例來說,其中之一可能會透過設定分類門檻,為某些屬性維持機會的平等率,藉此對二元分類器套用後續處理作業,方法是檢查該屬性所有值的真陽率是否相同。

預測一致性

#fairness

這個公平性指標可檢查特定分類器的「精確度」比率是否等同於考慮考慮的子群組。

舉例來說,如果預測大學接受率的模型,只要該模型對利利波特斯和布洛丁納加的精確度相同,就能滿足國籍的預測一致性。

預測一致性有時也稱為「預測率一致性」

如要進一步瞭解預測一致性,請參閱「公平性定義說明」 (第 3.2.1 節)。

預測率一致性

#fairness

預測一致性的另一個名稱。

預先處理

#fairness
我們會先處理資料再用於訓練模型。預先處理相當簡單,例如從英文字典中出現的英文文字語料庫中移除字詞,或是以重新表示資料點的方式複雜化,藉此排除大量與敏感屬性相關的屬性。預先處理功能可協助滿足公平性限制

Proxy (敏感屬性)

#fairness
用來做為敏感屬性獨立項目的屬性。例如,個人的郵遞區號可能會用來代表其收入、種族或族裔。

R

報表偏誤

#fairness

使用者針對動作、結果或屬性撰寫頻率的頻率,不代表了自身在現實生活中的頻率,也不代表資源屬於個人類別的特性。報表偏誤會影響機器學習系統 從中學習的資料組成

例如,書籍中的「laughed」一詞會比「breathed」更常見。某機器學習模型預估書籍語料庫產生的笑話和呼吸頻率,可能會判斷出笑比呼吸更為常見。

取樣偏誤

#fairness

請參閱選取偏誤

選擇偏誤

#fairness

由於選取程序導致取樣資料中的錯誤,這些錯誤會在資料中觀察到的樣本與未觀察到的樣本之間產生系統差異。以下形式的選取偏誤形式如下:

  • 涵蓋率偏誤:資料集中顯示的人口與機器學習模型預測相關的母體不符。
  • 取樣偏誤:系統不會從目標群組隨機收集資料。
  • 非回應偏誤 (也稱為「參與偏誤」):特定群組的使用者會選擇停止參與問卷調查,頻率會與其他群組的使用者不同。

舉例來說,假設您要建立能預測人們對電影的喜好的機器學習模型。為了收集訓練資料,您需要將一份問卷調查傳送給放映電影的院線所有人。但這聽起來似乎是收集資料集的合理方式;但是,這種資料收集形式可能會引入下列形式的選擇偏誤:

  • 涵蓋率偏誤:藉由從選擇觀看某部電影的人口取樣,模型預測結果可能無法提供給尚未表達對電影感興趣的人。
  • 取樣偏誤:您並非從預期母體 (電影的所有人物) 隨機取樣,而是僅取樣前排的人口。可能位於前排的民眾對電影的感興趣,可能較其他列的觀眾對這部電影更感興趣。
  • 非回應偏誤:一般來說,擁有強烈意見的人,較常對選擇性問卷調查的回覆頻率較高。由於電影問卷調查為選填項目,因此回應較一般 (鈴鐺形狀) 分佈情形更可能形成雙模分佈

機密屬性

#fairness
人類屬性可能會因為法律、倫理、社會或個人因素而特別列入考量

U

不認識 (敏感屬性)

#fairness

存在敏感屬性,但未包含在訓練資料中的情況。由於敏感屬性通常與某項資料的其他屬性相關聯,因此在不瞭解機密屬性的情況下,接受訓練的模型仍可能具有該屬性的差異影響,或者違反其他公平性限制