机器学习术语表:公平性

使用集合让一切井井有条 根据您的偏好保存内容并对其进行分类。

此页面包含公平性术语表。如需了解所有术语表,请点击此处

A

特性

#fairness

feature 的含义相同,公平性通常是指与个人相关的特征。

自动化偏差

#fairness

自动决策系统会优先考虑自动决策系统给出的建议,而非自动实现的信息,即使自动化决策系统出错也是如此。

B

偏差(道德/公平性)

#fairness

1. 对某些事物、人或群体的刻板印象、偏见或偏爱。这些偏差会影响数据的收集和解释、系统的设计以及用户与系统的互动方式。此类偏差的形式包括:

2. 由采样或报告过程引入的系统性错误。 此类偏差的形式包括:

请勿与机器学习模型中的偏差项预测偏差混淆。

C

确认偏差

#fairness

搜索、解读、表达和回想信息,并证实自身已有的信仰或假设的方式。机器学习开发者可能会无意中以影响其现有信念的结果的方式收集或标记数据。确认偏差是一种隐式偏差

实验者偏差是一种确认偏差,实验者会不断地训练模型,直到模型的预测结果能证实他们先前的假设为止。

公平性公平

#fairness
一种公平性指标,用于检查分类器是否针对一个人生成的结果与另一个个体产生的结果相同(针对另一个人),但关于一个或多个敏感属性除外。评估分类器是否属于客观公平性,是用于在模型中显示潜在偏差的来源的一种方式。

如需详细了解反事实性公平性,请参阅“世界在碰撞:公平性中的不同假设性假设”一文

覆盖率偏差

#fairness

请参阅选择偏差

D

与受众特征等同

#fairness

一种公平性指标,如果模型分类的结果不依赖于给定的敏感属性,则可以满足此要求。

例如,如果小人国和罗布丁纳吉斯州都适用于格卢布杜比勒布大学,那么如果入职的意大利人民的百分比与入选的布卢丁纳吉纳州的百分比相同,则无论该群体是否比另一群体更符合条件,均将达到受众特征。

均衡几率机会均等相对,二者允许分类结果汇总依赖于敏感特性,但不允许某些指定的评估依据标签的分类结果依赖于敏感特性。请参阅“利用更智能的机器学习来消除歧视”,了解在针对受众特征对等性进行优化时的权衡取舍。

完全不同的影响

#fairness

对影响不同群体的子群体做出不成比例的决策。这通常是指算法决策过程对某些子群组的危害或好处大于其他子群组的情况。

例如,假设一种算法可以确定小程序贷款的资格条件,如果它的邮寄地址包含特定的邮政编码,则更有可能被归类为“不符合条件”。如果大字节序的小人民邮政地址的邮政编码更有可能是小端字节序小企业家,那么此算法可能会产生不同的影响。

不同的处理方式相反,此处理方式侧重于当子特征是算法决策过程的明确输入时产生的差异。

完全不同的治疗

#fairness

将正文的敏感属性分解成一个算法决策过程,以便区别对待不同的子群体。

例如,假设有这样一个算法,该算法根据小程序住房贷款在贷款申请中提供的数据来确定其是否符合获得小额贷款的条件。如果该算法将小里布的联属作为小端或小端作为输入,则会沿该维度采取不同的处理方式。

不同的影响相反,该影响侧重于算法决策对子群体的社会影响的差异,无论这些子群组是否是模型的输入。

E

机会平等

#fairness
一个公平性指标,用于检查某个首选标签(可赋予用户优势或优势)和给定属性,分类器会预测该首选标签在该属性的所有值上的效果是否相同。换言之,机会均等衡量的是即使应有无资格为群组的成员而有资格获得相应福利的用户也同样有可能。

例如,假设 Glubbdubdrib University 承认立陶宛人和布罗丁尼亚吉安人有严格的数学课程。小学的中学提供功能强大的数学课程,而且绝大多数学生都符合大学项目的资格要求。布罗德纳吉亚中学根本不讲授数学课程,因此,符合条件的学生数量非常少。如果符合资格的学生同样有机会入职,则无论其入学资格是否相同,都可以在“已入职”优先标签(即“小联盟”或“布罗丁纳吉”)中满足同等条件。

例如,假设有 100 名小人国居民和 100 名布鲁布纳吉亚人申请格卢伯杜布利布大学,入学申请作出如下决定:

表 1. 小里才申请者(90% 符合条件)

  符合资格 不合格
允许 45 3
已拒绝 45 7
总计 90 10
录取的符合条件的学生所占百分比:45/90 = 50%
不合格的学生所占百分比:7/10 = 70%
入学的略客学生总数百分比:(45+3)/100 = 48%

 

表 2. 布罗丁语申请者(10% 符合条件):

  符合资格 不合格
允许 5 9
已拒绝 5 81
总计 10 90
录取的符合条件的学生所占百分比:5/10 = 50%
不符合条件的学生所占百分比:81/90 = 90%
布罗丁纳吉岛学生总体入学百分比:(5+9)/100 = 14%

上述示例满足了符合条件的学生接受教育机会均等的机会,因为符合条件的小人国居民和 Brobdingnagians 都有机会入学。

如需详细了解机会平等,请参阅监督式学习中的平等机会。另请参阅“使用更智能的机器学习来消除歧视”,了解在针对机会平等进行优化时如何权衡利弊。

等号几率

#fairness
一个公平性指标,用于检查分类器能否针对任何特定标签和属性预测该属性的所有值对该标签的预测效果良好。

例如,假设 Glubbdubdrib University 承认立陶宛人和布罗德纳吉亚人参加了严格的数学课程。小学和中学提供功能强大的数学课程,其中绝大多数学生都符合加入大学课程的条件。Brobdingnagians&#39:中学根本就不开设数学课程,因此符合条件的学生数量也大大减少。只要申请者是合格的 Lilliputian 人或 Brobdingnagian 人,则无论他们是否符合条件,他们同样有可能获准加入该计划;如果不符合条件,他们同样有可能被拒。

假设有 100 名小人国和 100 名布鲁布纳吉亚大学申请前往格鲁布杜比布大学,入学申请作出如下决定:

表 3. 小里才申请者(90% 符合条件)

  符合资格 不合格
允许 45 2
已拒绝 45 8
总计 90 10
录取的符合条件的学生所占百分比:45/90 = 50%
不合格的学生所占百分比:8/10 = 80%
入学的小学生总数所占的百分比:(45+2)/100 = 47%

 

表 4. 布罗丁语申请者(10% 符合条件):

  符合资格 不合格
允许 5 18
已拒绝 5 72
总计 10 90
录取的符合条件的学生百分比:5/10 = 50%
不合格的学生所占百分比:72/90 = 80%
获准加入布罗丁纳吉的学生总数百分比:(5+18)/100 = 23%

平等几率得到满足,因为合格的小人国民学生和 Brobdingnagian 学生都有机会入学,不符合条件的小人国民学生和 Brobdingnagian 有 80% 的机会被拒绝。

在“监督式学习的平等几率”中,相等性几率被正式定义如下:如果 Ç 和 A 是独立的,基于条件 Y 的条件,则预测器 \chat 满足有关受保护属性 A 和结果 Y 的均等几率。

实验者偏差

#fairness

请参阅确认偏差

F

公平性约束

#fairness
对算法应用限制条件以确保满足一个或多个公平性定义。公平性约束的示例包括:

公平性指标

#fairness

“可衡量性”的数学定义。 一些常用的公平性指标包括:

许多公平性指标是互斥的;请参阅公平性指标不兼容

绿

群体归因偏差

#fairness

假设某人的真实情况也适用于该群组中的每一个人。如果使用便利抽样收集数据,群体归因偏差的影响可能会加剧。在非代表性样本中,归因可能无法反映现实情况。

另请参阅群外同质性偏差群内偏差

I

隐式偏差

#fairness

根据某人的心智模式和记忆自动建立关联或假设。隐性偏差会影响以下方面:

  • 数据的收集和分类方式。
  • 机器学习系统的设计和开发方式。

例如,在构建用于识别婚礼照片的分类器时,工程师可能会将照片中的白色连衣裙当作特征。不过,白色裙子仅在某些时代和某些文化中是一种习俗。

另请参阅确认偏差

公平性指标不兼容

#fairness

公平性的一些概念是互不兼容的,无法同时得到满足。因此,没有一个适用于所有量化问题的公平性可用于量化公平性。

虽然这似乎令人反感,但公平性指标的不兼容性并不意味着公平性努力没有效果。相反,它建议为给定的机器学习问题通过公平性定义公平性,目标是防范特定于其用例的损害。

有关此主题的详细讨论,请参阅关于公平性的(不可能性)

个人公平

#fairness

一种公平性指标,用于检查相似用户是否有类似的分类。例如,Brobdingnagian 学院可能希望确保两个具有相同成绩和标准化考试分数的学生同样获得录取,从而满足个人公平性。

请注意,单个公平性完全取决于您对“相似度”的定义(在本例中为成绩和测试分数),并且如果您的相似度指标缺少重要信息(例如学生课程的严格程度),您可能会面临引入公平性问题的风险。

请参阅认知度下的公平性,更详细地讨论公平性。

群内偏差

#fairness

显示对自身某个群体或某些特征的部分偏爱。 如果测试人员或评分者由机器学习开发者的朋友、家人或同事组成,那么组内偏差可能会导致产品测试或数据集无效。

群内偏差是一种群体归因偏差。另请参阅群外同质性偏差

未回答偏差

#fairness

请参阅选择偏差

O

群外同质性偏差

#fairness

在比较态度、价值观、性格特征和其他特征时,倾向于认为群外成员比群内成员更相似。“组内”是指您经常互动的人;“群外”是指您不常互动的人。如果您通过要求用户提供与群组外相关的属性来创建数据集,那么与参与者为其群组中的人员列出的属性相比,这些属性可能不太精细且更刻板。

例如,小人国居民可以详细描述其他小人民的房子,指出建筑风格、窗户、门和大小方面的细微差别。不过,同样的小人国居民可能会简单地宣称布罗丁尼亚吉亚人住在相同的房子里。

群外同质性偏差是一种群体归因偏差

另请参阅群内偏差

P

参与偏差

#fairness

与未回答偏差的含义相同。请参阅选择偏差

后期处理

#fairness
在模型运行后处理模型的输出。后处理可用于强制执行公平性约束,而无需修改模型本身。

例如,通过设置分类阈值,通过针对某个属性的所有值检查真正例率是否保持不变,为某些属性维持机会均等性,可以对二元分类器进行后处理。

预测对等

#fairness

一个公平性指标,用于检查给定分类器的精确率率是否等同于正在考虑的子组。

例如,如果小学者和布罗丁纳吉纳人的精确率相同,则预测大学接受度的模型将满足国籍的预测对等性。

预测对等性有时也称为预测率相等

请参阅公平性定义说明(第 3.2.1 节),更详细地了解预测等效性。

预测率等效

#fairness

预测等效

预处理

#fairness
先处理数据,然后再将其用于训练模型。预处理可以很简单,只需从英语文本语料库中移除没有出现在英语字典中的字词,也可以比较复杂,例如以一种尽可能多的方式重新表示数据点,从而消除尽可能多的与敏感属性相关联的属性。预处理有助于满足公平性限制

代理(敏感属性)

#fairness
用作敏感属性的替代属性。例如,个人的邮政编码可以用作其收入、种族或民族的替代指标。

R

报告偏差

#fairness

用户撰写关于操作、结果或属性的频率不能反映其现实频率或属性在多大程度上取决于一类人的特征。报告偏差会影响机器学习系统学习的数据组成。

例如,在书中,“laughed”比“breathed”更普遍。如果某个机器学习模型可估算从书本资料库中大笑和保持相对稳定的频率,很可能会认为笑声比呼吸更常见。

S

采样偏差

#fairness

请参阅选择偏差

选择性偏差

#fairness

由于选择流程会导致在数据中观察到的样本与未观察到的样本之间存在系统性差异,根据采样数据得出的结论出错。存在以下形式的选择偏差:

  • 覆盖偏差:数据集表示的群体与机器学习模型进行预测的群体不符。
  • 抽样偏差:数据不是从目标群体中随机收集的。
  • 未回答偏差(也称为参与偏差):某些群体中的用户以不同于其他群体中用户的比率选择不参与调查问卷。

例如,假设您要创建一个机器学习模型来预测人们对电影的了解。为了收集训练数据,您向放映该电影的影院第一排的所有人发放调查问卷。不好意思,这听起来可能是收集数据集的合理方式;但是,这种形式的数据收集可能会引入以下形式的选择偏差:

  • 覆盖偏差:通过从选择观看电影的人群中采样,模型预测可能不会泛化到尚未对电影表现出兴趣的用户。
  • 采样偏差:您并非对预期人口(影片中的所有人物)进行随机采样,而是仅采集前排的人物。前排的人们可能比其他行中的观众更感兴趣。
  • 未回答偏差:通常,相比其他意见,意见较强烈的受访者对可选调查问卷的回答往往更频繁。由于影片调查问卷是可选的,因此回复更有可能形成双模分布,而不是正态(钟形)分布。

敏感属性

#fairness
出于法律、道德、社会或个人原因而可能被特别考虑的人类属性。

U

不知道(敏感属性)

#fairness

存在敏感属性但并未包含在训练数据中的情况。由于敏感特性通常与数据的其他特性相关联,因此在对敏感特性不知情的情况下训练的模型仍然可能会对特性产生完全不同的影响,或者违反其他公平性限制