机器学习术语表

本术语表定义了机器学习术语。

A

消融

一种用于评估特征或组件重要性的技术,方法是将相应特征或组件暂时从模型移除。然后,您可以在不使用该特征或组件的情况下重新训练模型,如果重新训练后的模型性能明显下降,则表明移除的特征或组件可能很重要。

例如,假设您使用 10 个特征训练了一个分类模型,并在测试集上实现了 88% 的精确率。如需检查第一个特征的重要性,您可以仅使用其他 9 个特征重新训练模型。如果重新训练后的模型性能明显下降(例如,精确率为 55%),则表明移除的特征可能很重要。反之,如果重新训练后的模型表现同样出色,则表明该特征可能并不那么重要。

消融还可以帮助确定以下各项的重要性:

  • 较大的组件,例如大型机器学习系统的整个子系统
  • 流程或技术,例如数据预处理步骤

在这两种情况下,您都可以观察到在移除组件后,系统的性能会发生怎样的变化(或不发生变化)。

A/B 测试

一种比较两种(或更多)技术(即 AB)的统计方法。通常,A 是现有技术,而 B 是新技术。 A/B 测试不仅可以确定哪种技巧的效果更好,还可以确定这种差异是否具有统计显著性。

A/B 测试通常会比较两种技术在单个指标上的表现;例如,两种技术在模型准确率方面的比较结果如何?不过,A/B 测试也可以比较任意有限数量的指标。

加速器贴块

#GoogleCloud

一类专门的硬件组件,旨在执行深度学习算法所需的主要计算。

与通用 CPU 相比,加速器芯片(简称加速器)可以显著提高训练和推理任务的速度和效率。它们非常适合训练神经网络和执行类似的计算密集型任务。

加速器芯片的示例包括:

  • Google 的张量处理单元 (TPU),具有专用于深度学习的硬件。
  • NVIDIA 的 GPU 虽然最初是为图形处理而设计的,但旨在实现并行处理,从而显著提高处理速度。

准确性

#fundamentals
#Metric

正确的分类预测数量除以预测总数。具体来说:

$$\text{Accuracy} = \frac{\text{correct predictions}} {\text{correct predictions + incorrect predictions }}$$

例如,如果某个模型做出了 40 次正确预测和 10 次错误预测,那么其准确率为:

$$\text{Accuracy} = \frac{\text{40}} {\text{40 + 10}} = \text{80%}$$

二元分类为不同类别的正确预测错误预测提供了具体名称。因此,二元分类的准确率公式如下:

$$\text{Accuracy} = \frac{\text{TP} + \text{TN}} {\text{TP} + \text{TN} + \text{FP} + \text{FN}}$$

其中:

  • TP 是真正例(正确预测)的数量。
  • TN 是真负例(正确预测)的数量。
  • FP 是假正例(不正确的预测)的数量。
  • FN 是假负例(不正确的预测)的数量。

比较和对比准确率与精确率召回率

如需了解详情,请参阅机器学习速成课程中的分类:准确率、召回率、精确率和相关指标

action

#rl

强化学习中,代理环境状态之间转换的机制。代理使用政策选择操作。

激活函数

#fundamentals

一种使神经网络能够学习特征与标签之间非线性(复杂)关系的函数。

常用的激活函数包括:

激活函数的图从不是单条直线。 例如,ReLU 激活函数的图由两条直线组成:

包含两条线的直角坐标曲线图。第一条线的 y 值恒定为 0,沿 x 轴从 -infinity,0 延伸到 0,-0。
          第二行的起始位置为 0,0。此线的斜率为 +1,因此它从 0,0 延伸到 +infinity,+infinity。

Sigmoid 激活函数的图如下所示:

一个二维曲线图,x 值范围为负无穷大到正无穷大,而 y 值范围为接近 0 到接近 1。当 x 为 0 时,y 为 0.5。曲线的斜率始终为正,在 0 和 0.5 处斜率最高,随着 x 的绝对值增加,斜率逐渐减小。

如需了解详情,请参阅机器学习速成课程中的神经网络:激活函数

主动学习

一种训练方法,采用这种方法时,算法会选择从中学习规律的部分数据。当有标签的示例稀缺或获取成本高昂时,主动学习尤其有用。主动学习算法会选择性地寻找学习所需的特定范围的样本,而不是盲目地寻找各种各样的有标签样本。

AdaGrad

一种先进的梯度下降法,用于重新调整每个形参的梯度,以便有效地为每个形参指定独立的学习速率。如需了解完整说明,请参阅用于在线学习和随机优化的自适应次梯度方法

改编

#language
#image
#generativeAI

与调优或微调的含义相同。

代理

#rl

能够对多模态用户输入进行推理,以便代表用户规划和执行操作的软件。

强化学习中,智能体是使用政策来最大限度提高从环境状态转换中获得的预期回报的实体。

凝聚式聚类

#clustering

请参阅层次聚类

异常值检测

识别离群值的过程。例如,如果某个特征的平均值为 100,标准差为 10,那么异常检测功能应将 200 的值标记为可疑。

AR

增强现实的缩写。

PR 曲线下的面积

#Metric

请参阅 PR AUC(PR 曲线下面积)

ROC 曲线下面积

#Metric

请参阅 AUC(ROC 曲线下面积)

人工通用智能

一种非人类机制,可展现广泛的问题解决能力、创造力和适应性。例如,展示通用人工智能的程序可以翻译文本、创作交响乐,在尚未发明的游戏中表现出色。

人工智能

#fundamentals

一种非人类程序或模型,能够解决复杂的任务。例如,翻译文本的程序或模型,以及根据放射影像识别疾病的程序或模型,都展现了人工智能。

从形式上讲,机器学习是人工智能的一个子领域。不过,近年来,一些组织开始交替使用人工智能机器学习这两个术语。

Attention

#language

一种用于神经网络的机制,用于指示特定字词或字词一部分的重要性。注意力机制可压缩模型预测下一个 token/字词所需的信息量。典型的注意力机制可能包含一组输入的加权和,其中每个输入的权重由神经网络的另一部分计算得出。

另请参阅 自注意力机制多头自注意力机制,它们是 Transformer 的构建块。

如需详细了解自注意力机制,请参阅机器学习速成课程中的LLM:什么是大语言模型?

属性

#responsible

特征的含义相同。

在机器学习公平性方面,属性通常是指与个人相关的特征。

属性抽样

#df

一种用于训练决策森林的策略,其中每个决策树在学习条件时仅考虑可能的特征的随机子集。一般来说,每个节点都会对不同的特征子集进行抽样。相比之下,在训练不进行属性抽样的决策树时,系统会考虑每个节点的所有可能特征。

AUC(ROC 曲线下面积)

#fundamentals
#Metric

一个介于 0.0 和 1.0 之间的数字,表示二元分类模型区分正类别负类别的能力。 AUC 越接近 1.0,模型区分不同类别的能力就越好。

例如,下图展示了一个完美区分正类别(绿色椭圆)和负类别(紫色矩形)的分类模型。这个不切实际的完美模型的 AUC 为 1.0:

一条数轴,一侧有 8 个正例,另一侧有 9 个负例。

相反,下图显示了生成随机结果的分类模型的结果。此模型的 AUC 为 0.5:

一条数轴,上面有 6 个正例和 6 个负例。
          示例序列为正、负、正、负、正、负、正、负、正、负、正、负。

是的,上述模型的 AUC 为 0.5,而不是 0.0。

大多数模型都介于这两种极端情况之间。例如,以下模型在一定程度上区分了正分类和负分类,因此其 AUC 介于 0.5 和 1.0 之间:

一条数轴,上面有 6 个正例和 6 个负例。
          示例序列为负、负、负、负、正、负、正、正、负、正、正、正。

AUC 会忽略您为分类阈值设置的任何值。相反,AUC 会考虑所有可能的分类阈值。

如需了解详情,请参阅机器学习速成课程中的分类:ROC 和 AUC

增强现实

#image

一种将计算机生成的图像叠加到用户看到的真实世界上的技术,从而提供合成视图。

自动编码器

#language
#image

一种可学习从输入中提取最重要信息的系统。自动编码器是编码器解码器的组合。自动编码器依赖于以下两步流程:

  1. 编码器将输入映射到(通常)有损的低维(中间)格式。
  2. 解码器通过将低维格式映射到原始高维输入格式来构建原始输入的有损版本。

通过让解码器尝试尽可能准确地从编码器的中间格式重建原始输入,对自动编码器进行端到端训练。由于中间格式比原始格式小(维度更低),因此自动编码器必须学习输入中哪些信息是必不可少的,并且输出不会与输入完全相同。

例如:

  • 如果输入数据是图形,则非完全相同的副本会与原始图形类似,但会进行一些修改。可能非精确副本会去除原始图形中的噪声或填充一些缺失的像素。
  • 如果输入数据是文本,自动编码器会生成模仿(但不等同于)原始文本的新文本。

另请参阅变分自编码器

自动评估

#language
#generativeAI

使用软件来判断模型输出的质量。

如果模型输出相对简单,脚本或程序可以将模型输出与标准回答进行比较。这种类型的自动评估有时称为程序化评估ROUGEBLEU 等指标通常有助于进行程序化评估。

如果模型输出复杂或没有唯一正确答案,有时会由一个名为自动评分器的单独机器学习程序执行自动评估。

人工评估相对。

自动化偏差

#responsible

是指针对自动化决策系统所给出的建议的偏差,在此偏差范围内,即使系统出现错误,决策者也会优先考虑自动化决策系统给出的建议,而不是非自动化系统给出的建议。

如需了解详情,请参阅机器学习速成课程中的公平性:偏差类型

AutoML

用于构建机器学习 模型的任何自动化流程。AutoML 可以自动执行以下任务:

  • 搜索最合适的模型。
  • 调整超参数
  • 准备数据(包括执行特征工程)。
  • 部署生成的模型。

AutoML 对数据科学家很有用,因为它可以节省他们开发机器学习流水线的时间和精力,并提高预测准确性。对于非专业人士,它也很有用,因为它可以让他们更轻松地完成复杂的机器学习任务。

如需了解详情,请参阅机器学习速成课程中的自动化机器学习 (AutoML)

自动评估器评估

#language
#generativeAI
一种用于评判生成式 AI 模型输出质量的混合机制,将人工评估自动评估相结合。 自动评估器是一种基于人工评估生成的数据训练的机器学习模型。理想情况下,自动评估器会学习模仿人类评估者。

虽然有预建的自动评分器,但最好的自动评分器是专门针对您要评估的任务进行微调的。

自回归模型

#language
#image
#generativeAI

一种基于自身之前的预测来推断预测结果的模型。例如,自回归语言模型会根据之前预测的 token 来预测下一个 token。所有基于 Transformer大语言模型都是自回归模型。

相比之下,基于 GAN 的图像模型通常不是自回归模型,因为它们通过一次前向传递生成图像,而不是以迭代方式分步生成图像。不过,某些图片生成模型自回归模型,因为它们会分步生成图片。

辅助损失

一种与神经网络 模型的主要损失函数结合使用的损失函数,有助于在权重随机初始化的早期迭代期间加速训练

辅助损失函数会将有效梯度推送到较早的。这有助于在训练期间通过解决梯度消失问题来促进收敛

前 k 名的平均精确率

#language
#Metric

一种用于总结模型在生成排名结果(例如图书推荐的编号列表)的单个提示上的表现的指标。k 处的平均精确率是指每个相关结果的 k 处的精确率的平均值。 因此,前 k 个结果的平均精确率的公式为:

\[{\text{average precision at k}} = \frac{1}{n} \sum_{i=1}^n {\text{precision at k for each relevant item} } \]

其中:

  • \(n\) 是列表中的相关商品数量。

k 处的召回率相对。

轴对齐条件

#df

决策树中,仅涉及单个特征条件。例如,如果 area 是一个特征,则以下是轴对齐条件:

area > 200

斜条件相对。

B

反向传播

#fundamentals

神经网络中实现梯度下降的算法。

训练神经网络需要多次迭代以下双向传递周期:

  1. 前向传递期间,系统会处理一批 示例,以生成预测结果。系统会将每个预测结果与每个标签值进行比较。预测值与标签值之间的差值就是相应示例的损失。系统会汇总所有示例的损失,以计算当前批次的总损失。
  2. 反向传递(反向传播)期间,系统会通过调整所有隐藏层中所有神经元的权重来减少损失。

神经网络通常包含多个隐藏层中的许多神经元。每个神经元以不同的方式影响总体损失。 反向传播会确定是增加还是减少应用于特定神经元的权重。

学习速率是一种乘数,用于控制每次向后传递时每个权重增加或减少的程度。与较小的学习速率相比,较大的学习速率会更大幅度地增加或减少每个权重。

从微积分的角度来看,反向传播实现了微积分中的链式法则。也就是说,反向传播会计算误差相对于每个形参的偏导数

多年前,机器学习从业者必须编写代码才能实现反向传播。Keras 等现代机器学习 API 现在会为您实现反向传播。好,

如需了解详情,请参阅机器学习速成课程中的神经网络

装袋

#df

一种用于训练集成的方法,其中每个组成模型都基于有放回抽样的随机训练示例子集进行训练。例如,随机森林是使用 Bootstrap 抽样训练的决策树的集合。

术语“bagging”是“bootstrap aggregating”(自助抽样集成)的简称。

如需了解详情,请参阅“决策森林”课程中的随机森林

词袋

#language

词组或段落中的字词的表示法,不考虑字词顺序。例如,以下三个词组的词袋完全一样:

  • the dog jumps
  • jumps the dog
  • dog jumps the

每个字词都映射到稀疏向量中的一个索引,其中词汇表中的每个字词都在该向量中有一个索引。例如,词组“the dog jumps”会映射到一个特征向量,该特征向量在字词“the”“dog”和“jumps”对应的三个索引处包含非零值。非零值可以是以下任一值:

  • 1,表示某个字词存在。
  • 某个字词出现在词袋中的次数。例如,如果词组为“the maroon dog is a dog with maroon fur”,那么“maroon”和“dog”都会表示为 2,其他字词则表示为 1。
  • 其他一些值,例如,某个字词出现在词袋中的次数的对数。

baseline

#Metric

一种模型,用作比较其他模型(通常是更复杂的模型)效果时的参考点。例如,逻辑回归模型可以作为深度模型的良好基准。

对于特定问题,基准有助于模型开发者量化新模型必须达到的最低预期性能,以便新模型发挥作用。

基础模型

#language
#generativeAI

一种预训练模型,可作为微调的起点,以解决特定任务或应用。

基础模型是预训练模型基础模型的同义词。

批处理

#fundamentals

一次训练迭代中使用的示例集。批次大小决定了一个批次中的样本数。

如需了解批次与周期之间的关系,请参阅 周期

如需了解详情,请参阅机器学习速成课程中的线性回归:超参数

批量推理

#GoogleCloud

对分为较小子集(“批次”)的多个无标签示例进行推理预测的过程。

批量推理可以利用加速器芯片的并行化功能。也就是说,多个加速器可以同时对不同批次的无标签示例进行推理预测,从而大幅提高每秒的推理次数。

如需了解详情,请参阅机器学习速成课程中的生产环境中的机器学习系统:静态推理与动态推理

批次归一化

隐藏层激活函数的输入或输出进行归一化。批次归一化具有下列优势:

批次大小

#fundamentals

一个批次中的样本数量。 例如,如果批次大小为 100,则模型在每次迭代中处理 100 个样本。

以下是常用的批次大小策略:

  • 随机梯度下降法 (SGD),其中批次大小为 1。
  • 完整批次,其中批次大小为整个训练集中的样本数。例如,如果训练集包含 100 万个样本,则批次大小为 100 万个样本。完整批次通常是一种低效的策略。
  • 小批次,批次大小通常介于 10 到 1000 之间。小批次通常是最有效的策略。

请参阅以下内容了解详细信息:

贝叶斯神经网络

一种概率神经网络,用于解释权重和输出的不确定性。标准神经网络回归模型通常会预测一个标量值;例如,某个标准模型预测房价为 853,000。相比之下,贝叶斯神经网络会预测值的分布情况;例如,某个贝叶斯模型预测房价为 853000,其中标准偏差为 67200。

贝叶斯神经网络根据 贝叶斯定理计算权重和预测的不确定性。如果需要量化不确定性,例如,在与医药相关的模型中,则贝叶斯神经网络非常有用。贝叶斯神经网络还有助于防止过拟合

贝叶斯优化

一种概率回归模型技术,通过使用贝叶斯学习技术量化不确定性,优化计算成本高昂的目标函数,而不是优化替代函数。由于贝叶斯优化本身非常耗费资源,因此通常用于优化评估成本高昂且参数数量较少的任务,例如选择超参数

贝尔曼方程

#rl

在强化学习中,最优 Q 函数满足以下等式:

\[Q(s, a) = r(s, a) + \gamma \mathbb{E}_{s'|s,a} \max_{a'} Q(s', a')\]

强化学习算法应用此恒等式,使用以下更新规则创建 Q-learning

\[Q(s,a) \gets Q(s,a) + \alpha \left[r(s,a) + \gamma \displaystyle\max_{\substack{a_1}} Q(s',a') - Q(s,a) \right] \]

除了强化学习之外,贝尔曼方程还可应用于动态规划。请参阅 维基百科中有关贝尔曼方程的条目

BERT(基于 Transformer 的双向编码器表示法)

#language

一种用于文本表示的模型架构。经过训练的 BERT 模型可以作为大型模型的一部分,用于文本分类或其他机器学习任务。

BERT 具有以下特征:

BERT 的变体包括:

如需简要了解 BERT,请参阅开源 BERT:最先进的自然语言处理预训练

偏差(道德/公平性)

#responsible
#fundamentals

1. 对某些事物、人或群体有刻板印象、偏见或偏袒。这些偏差会影响数据的收集和解读、系统设计以及用户与系统的互动方式。此类偏差的形式包括:

2. 采样或报告过程中引入的系统性误差。 此类偏差的形式包括:

请勿与机器学习模型中的偏差项预测偏差混淆。

如需了解详情,请参阅机器学习速成课程中的公平性:偏差类型

偏差(数学概念)或偏差项

#fundamentals

距离原点的截距或偏移。偏差是机器学习模型中的一个形参,可用以下任一符号表示:

  • b
  • w0

例如,在下面的公式中,偏差为 b:

$$y' = b + w_1x_1 + w_2x_2 + … w_nx_n$$

在简单的二维线性模型中,偏差仅表示“y 轴截距”。 例如,下图中的直线的偏差为 2。

斜率为 0.5、偏差(y 轴截距)为 2 的直线的图。

之所以存在偏差,是因为并非所有模型都从原点 (0,0) 开始。例如,假设某游乐园的门票为 2 欧元,客户每停留 1 小时需额外支付 0.5 欧元。因此,映射总费用的模型具有 2 的偏差,因为最低费用为 2 欧元。

请勿将偏差与道德和公平性偏差预测偏差混淆。

如需了解详情,请参阅机器学习速成课程中的线性回归

双向

#language

一种用于描述评估目标文本部分之前和之后的文本的系统的术语。相比之下,单向系统仅评估目标文本部分之前的文本。

例如,假设有一个遮盖式语言模型,它必须确定以下问题中带下划线的字词的概率:

你有什么_____?

单向语言模型必须仅根据“What”“is”和“the”这几个字词提供的上下文来确定概率。相比之下,双向语言模型还可以从“with”和“you”中获取上下文,这可能有助于模型生成更好的预测结果。

双向语言模型

#language

一种语言模型,用于根据摘录文本的前文后文,确定给定令牌出现在摘录文本中给定位置的概率。

二元语法

#seq
#language

一种 N 元语法,其中 N=2。

二元分类

#fundamentals

一种分类任务,用于预测两个互斥的类别之一:

例如,以下两个机器学习模型都执行二元分类:

  • 一种用于确定电子邮件是垃圾邮件(正类别)还是非垃圾邮件(负类别)的模型。
  • 一种评估医疗症状以确定某人是否患有特定疾病(正类别)的模型。

多类别分类相对。

另请参阅逻辑回归分类阈值

如需了解详情,请参阅机器学习速成课程中的分类

二元条件

#df

决策树中,条件只有两种可能的结果,通常是。例如,以下是一个二元条件:

temperature >= 100

非二元条件相对。

如需了解详情,请参阅决策森林课程中的条件类型

分箱

分桶的含义相同。

BLEU(双语替换评测)

#language

一种介于 0.0 和 1.0 之间的指标,用于评估机器翻译的质量,例如从西班牙语到日语的翻译。

为了计算得分,BLEU 通常会将机器学习模型的翻译(生成的文本)与人类专家的翻译(参考文本)进行比较。生成文本和参考文本中 N 元语法的匹配程度决定了 BLEU 得分。

有关此指标的原始论文是《BLEU:一种用于自动评估机器翻译的方法》。

另请参阅 BLEURT

BLEURT(基于 Transformer 的双语替换评测)

#language

一种用于评估从一种语言到另一种语言(尤其是英语)的机器翻译的指标。

对于英语与另一种语言之间的翻译,BLEURT 与人工评分的契合度比 BLEU 更高。与 BLEU 不同,BLEURT 侧重于语义(含义)相似性,并且可以适应释义。

BLEURT 依赖于一个预训练的大语言模型(确切来说是 BERT),然后使用人工翻译的文本对该模型进行微调

有关此指标的原始论文是 BLEURT: Learning Robust Metrics for Text Generation

增强学习

一种机器学习技术,以迭代方式将一组简单但不太准确的分类器(也称为“弱”分类器)合成一个准确率高的分类器(即“强”分类器),具体方法是对模型目前错误分类的样本进行权重上调

如需了解详情,请参阅决策森林课程中的什么是梯度提升决策树?

边界框

#image

图片中感兴趣区域(例如下图中的狗)周围矩形的 (x, y) 坐标。

照片:一只狗坐在沙发上。一个绿色边界框,左上角坐标为 (275, 1271),右下角坐标为 (2954, 2761),框住了狗的身体

广播

将矩阵数学运算中某个运算数的形状扩展为与该运算兼容的维度。例如,线性代数要求矩阵加法运算中的两个运算数必须具有相同的维度。因此,您无法将形状为 (m, n) 的矩阵与长度为 n 的向量相加。为了使该运算有效,广播会在每列下复制相同的值,将长度为 n 的向量扩展成形状为 (m, n) 的矩阵。

如需了解详情,请参阅 NumPy 中的广播这篇文章的说明。

分桶

#fundamentals

将单个特征转换为多个二元特征(称为),通常根据值区间进行转换。截断的特征通常是连续特征

例如,您可以将温度范围划分为离散的区间,而不是将温度表示为单个连续的浮点特征,例如:

  • <= 10 摄氏度为“冷”区间。
  • 11-24 摄氏度为“温带”区间。
  • >= 25 摄氏度为“温暖”区间。

模型会将同一分桶中的每个值视为相同的值。例如,值 1322 都位于温和型存储分区中,因此模型会以相同的方式处理这两个值。

如需了解详情,请参阅机器学习速成课程中的数值数据:分箱

C

校准层

一种预测后调整,通常是为了降低预测偏差的影响。调整后的预测和概率应与观察到的标签集的分布一致。

候选集生成

#recsystems

推荐系统选择的初始推荐集。例如,假设某家书店有 10 万本书。在候选集生成阶段,推荐系统会针对特定用户生成一个小得多的合适书籍列表,比如 500 本。但即使向用户推荐 500 本也太多了。推荐系统的后续阶段(例如评分重排序)会进一步将这 500 个候选项目缩减为一小部分更有用的推荐项目。

如需了解详情,请参阅推荐系统课程中的候选生成概览

候选采样

一种训练时进行的优化,会使用某种函数(例如 softmax)针对所有类别标签计算概率,但仅随机抽取一部分负类别标签样本并计算概率。例如,如果某个样本的标签为“小猎犬”和“狗”,则候选采样将针对以下各项计算预测概率和相应的损失项:

  • beagle
  • dog
  • 其余负类别的随机子集(例如,棒棒糖栅栏)。

这种方法的理念是,只要正类别始终得到适当的正增强,负类别就可以从不太频繁的负增强中学习,而这确实符合实际观察情况。

与计算所有负类别的预测结果的训练算法相比,候选采样在计算方面更高效,尤其是在负类别的数量非常多时。

分类数据

#fundamentals

特征,拥有一组特定的可能值。例如,假设有一个名为 traffic-light-state 的分类特征,该特征只能具有以下三个可能值之一:

  • red
  • yellow
  • green

通过将 traffic-light-state 表示为分类特征,模型可以了解 redgreenyellow 对驾驶员行为的不同影响。

分类特征有时称为离散特征

数值数据相对。

如需了解详情,请参阅机器学习速成课程中的处理分类数据

因果语言模型

#language

单向语言模型的含义相同。

如需对比语言建模中不同的方向性方法,请参阅双向语言模型

形心

#clustering

k-meansk-median 算法确定的聚类中心。例如,如果 k 为 3,则 k-means 或 k-median 算法会找出 3 个形心。

如需了解详情,请参阅聚类课程中的聚类算法

形心聚类

#clustering

一类聚类算法,用于将数据整理为非分层聚类。k-means 是使用最广泛的形心聚类算法。

层次聚类算法相对。

如需了解详情,请参阅聚类课程中的聚类算法

思维链提示

#language
#generativeAI

一种提示工程技术,可促使大语言模型 (LLM) 逐步解释其推理过程。例如,请考虑以下提示,并特别注意第二句话:

如果一辆汽车在 7 秒内从 0 加速到 60 英里/小时,驾驶员会感受到多少 g 的重力?在回答中,显示所有相关计算。

LLM 的回答可能如下:

  • 显示一系列物理公式,并在适当的位置代入值 0、60 和 7。
  • 说明选择这些公式的原因以及各种变量的含义。

思维链提示会强制 LLM 执行所有计算,这可能会得出更正确的答案。此外,思维链提示可让用户检查 LLM 的步骤,以确定答案是否合理。

聊天

#language
#generativeAI

与机器学习系统(通常是大语言模型)进行来回对话的内容。聊天中的上一次互动(您输入的内容以及大语言模型的回答)会成为聊天后续部分的上下文。

聊天机器人是大语言模型的一种应用。

检查点

用于捕获模型参数在训练期间或训练完成后的状态的数据。例如,在训练期间,您可以:

  1. 停止训练,可能是故意停止,也可能是由于某些错误而停止。
  2. 捕获检查点。
  3. 稍后,重新加载检查点,可能是在不同的硬件上。
  4. 重新开始训练。

类别

#fundamentals

标签可以所属的类别。 例如:

  • 在检测垃圾邮件的二元分类模型中,这两个类别可能是垃圾邮件非垃圾邮件
  • 在识别犬种的多类别分类模型中,类别可能是贵宾犬比格犬巴哥犬等。

分类模型可预测类别。 相比之下,回归模型预测的是数字,而不是类别。

如需了解详情,请参阅机器学习速成课程中的分类

分类模型

#fundamentals

一种预测结果为类别模型。例如,以下都是分类模型:

  • 一个模型,用于预测输入句子的语言(法语?西班牙语? 意大利语?)。
  • 一个模型,用于预测树种(枫树?橡树?Baobab?)。
  • 用于预测特定医疗状况是阳性还是阴性的模型。

相比之下,回归模型预测的是数字,而不是类别。

以下是两种常见的分类模型:

分类阈值

#fundamentals

二元分类中,一个介于 0 到 1 之间的数字,用于将逻辑回归模型的原始输出转换为正类别负类别的预测结果。请注意,分类阈值是人为选择的值,而不是通过模型训练选择的值。

逻辑回归模型会输出一个介于 0 到 1 之间的原始值。然后,执行以下操作:

  • 如果此原始值大于分类阈值,则预测为正类别。
  • 如果此原始值小于分类阈值,则预测为负类。

例如,假设分类阈值为 0.8。如果原始值为 0.9,则模型预测为正类别。如果原始值为 0.7,则模型预测为负类别。

分类阈值的选择会严重影响假正例假负例的数量。

如需了解详情,请参阅机器学习速成课程中的阈值和混淆矩阵

分类器

#fundamentals

分类模型的非正式术语。

类别不平衡的数据集

#fundamentals

一种分类问题的数据集,其中每个类的标签总数差异很大。例如,假设有一个二元分类数据集,其两个标签的划分如下所示:

  • 100 万个负值标签
  • 10 个正值标签

负标签与正标签的比率为 100,000 比 1,因此这是一个分类不平衡的数据集。

相比之下,以下数据集属于类别不平衡,因为负标签与正标签的比率相对接近 1:

  • 517 个负值标签
  • 483 个正值标签

多类别数据集也可能存在类别不平衡问题。例如,以下多类别分类数据集也存在类别不平衡问题,因为一个标签的示例数量远多于其他两个标签:

  • 1,000,000 个标签,类别为“绿色”
  • 200 个带有“紫色”类的标签
  • 350 个标签,类别为“橙色”

另请参阅多数类少数类

裁剪

#fundamentals

一种处理离群值的方法,通过执行以下一项或两项操作来实现:

  • 将大于最大阈值的特征值减小到该最大阈值。
  • 将小于最小阈值的特征值增加到该最小阈值。

例如,假设某个特定特征的值中只有不到 0.5% 不在 40-60 的范围内。在这种情况下,您可以执行以下操作:

  • 将超过 60(最大阈值)的所有值裁剪到正好 60。
  • 将小于 40(最低阈值)的所有值裁剪到正好 40。

离群值可能会损坏模型,有时会导致训练期间出现权重溢出。某些离群值也会严重影响准确率等指标。剪裁是一种限制损坏的常用技术。

梯度裁剪可在训练期间强制使梯度值位于指定范围内。

如需了解详情,请参阅机器学习速成课程中的数值数据:归一化

Cloud TPU

#TensorFlow
#GoogleCloud

一种专门的硬件加速器,旨在加快 Google Cloud 上的机器学习工作负载。

聚类

#clustering

对相关的示例进行分组,尤其是在非监督式学习期间。在所有示例均分组完毕后,相关人员便可选择性地为每个聚类赋予含义。

聚类算法有很多。例如,k-means 算法会根据样本与形心的接近程度对样本进行聚类,如下图所示:

一个二维图,其中 x 轴标记为树宽度,y 轴标记为树高度。该图包含两个质心和数十个数据点。系统会根据数据点的邻近程度对其进行分类。也就是说,距离某个形心最近的数据点归类为聚类 1,而距离另一个形心最近的数据点归类为聚类 2。

之后,研究人员便可查看这些聚类并进行其他操作,例如,将聚类 1 标记为“矮型树”,将聚类 2 标记为“全尺寸树”。

再举一个例子,例如基于样本与中心点距离的聚类算法,如下所示:

数十个数据点排列成同心圆,几乎就像飞镖靶中心周围的孔洞。最内环的数据点归类为聚类 1,中间环归类为聚类 2,最外环归类为聚类 3。

如需了解详情,请参阅聚类分析课程

协同适应

一种不良行为,是指神经元几乎完全依赖其他特定神经元的输出(而不是依赖该网络的整体行为)来预测训练数据中的模式。如果验证数据中未呈现会导致协同适应的模式,则协同适应会导致过拟合Dropout 正规化可减少协同适应,因为 dropout 可确保神经元不会完全依赖其他特定神经元。

协同过滤

#recsystems

根据许多其他用户的兴趣,对一位用户的兴趣做出预测。协同过滤通常用在推荐系统中。

如需了解详情,请参阅推荐系统课程中的协同过滤

紧凑型模型

任何旨在在计算资源有限的小型设备上运行的小型模型。例如,紧凑型模型可以在手机、平板电脑或嵌入式系统上运行。

计算

(名词)模型或系统使用的计算资源,例如处理能力、内存和存储空间。

请参阅加速器芯片

概念漂移

特征与标签之间的关系发生变化。 随着时间的推移,概念漂移会降低模型的质量。

在训练期间,模型会学习训练集中特征与其标签之间的关系。如果训练集中的标签是现实世界的良好代理,那么模型应该能够做出良好的现实世界预测。不过,由于概念漂移,模型的预测结果往往会随着时间的推移而退化。

例如,假设有一个二元分类模型,用于预测特定汽车型号是否“省油”。也就是说,这些特征可以是:

  • 车辆重量
  • 发动机压缩
  • 传输类型

而标签为以下任一值:

  • 省油
  • 不省油

不过,“省油型汽车”的概念一直在变化。1994 年被标记为“省油”的汽车型号在 2024 年几乎肯定会被标记为“不省油”。出现概念漂移的模型往往会随着时间的推移,做出越来越无用的预测。

非平稳性进行比较和对比。

condition

#df
决策树中,任何节点都包含两个条件:

包含两个条件的决策树:(x > 0) 和 (y > 0)。

条件也称为拆分或测试。

对比条件与

另请参阅:

如需了解详情,请参阅决策森林课程中的条件类型

虚构

#language

幻觉的含义相同。

与“幻觉”相比,“虚构”可能是一个更准确的技术术语。 不过,幻觉先流行起来了。

配置

分配用于训练模型的初始属性值的过程,包括:

在机器学习项目中,可以通过特殊的配置文件或使用以下配置库来完成配置:

确认偏差

#responsible

一种以认可已有观念和假设的方式寻找、解读、支持和召回信息的倾向。 机器学习开发者可能会无意中以影响到支撑其现有观念的结果的方式收集或标记数据。确认偏差是一种隐性偏差

实验者偏差是一种确认偏差,实验者会不断地训练模型,直到模型的预测结果能证实他们先前的假设为止。

混淆矩阵

#fundamentals

一种 NxN 表格,用于总结分类模型做出的正确和错误预测的数量。例如,假设某个二元分类模型的混淆矩阵如下所示:

肿瘤(预测) 非肿瘤(预测)
肿瘤(标准答案) 18 (TP) 1 (FN)
非肿瘤(标准答案) 6(FP) 452(突尼斯)

上述混淆矩阵显示了以下内容:

  • 在 19 个标准答案为“肿瘤”的预测中,模型正确分类了 18 个,错误分类了 1 个。
  • 在标准答案为“非肿瘤”的 458 次预测中,模型正确分类了 452 次,错误分类了 6 次。

多类别分类问题的混淆矩阵可帮助您发现错误模式。例如,假设有一个 3 类多类分类模型,用于对三种不同的鸢尾花类型(维吉尼亚鸢尾、变色鸢尾和山鸢尾)进行分类,那么该模型的混淆矩阵如下所示。当标准答案为 Virginica 时,混淆矩阵显示,模型更有可能错误地预测为 Versicolor,而不是 Setosa:

  Setosa(预测) Versicolor(预测) Virginica(预测)
Setosa(标准答案) 88 12 0
Versicolor(标准答案) 6 141 7
Virginica(标准答案) 2 27 109

再举一个例子,某个混淆矩阵可以揭示,经过训练以识别手写数字的模型往往会将 4 错误地预测为 9,或者将 7 错误地预测为 1。

混淆矩阵包含足够的信息来计算各种效果指标,包括精确率召回率

成分句法分析

#language

将句子划分为更小的语法结构(“成分”)。 机器学习系统的后续部分(例如自然语言理解模型)可以比原始句子更轻松地解析这些成分。例如,请看以下句子:

我的朋友收养了两只猫。

成分句法分析器可以将此句子划分为以下两个成分:

  • 我的朋友是一个名词短语。
  • 收养了两只猫是一个动词短语。

这些成分可以进一步细分为更小的成分。 例如,动词短语

领养了两只猫

可进一步细分为:

  • adopted 是一个动词。
  • 两只猫是另一个名词短语。

情境化语言嵌入

#language
#generativeAI

一种嵌入,能够以流利的人类说话者的方式“理解”字词和短语。情境化语言嵌入可以理解复杂的语法、语义和上下文。

例如,假设英文单词 cow 的嵌入。较旧的嵌入(例如 word2vec)可以表示英语单词,使得嵌入空间中从 cowbull 的距离与从 ewe(母羊)到 ram(公羊)或从 femalemale 的距离相似。情境化语言嵌入可以更进一步,识别出英语使用者有时会随意使用 cow 一词来表示母牛或公牛。

上下文窗口

#language
#generativeAI

模型在给定提示中可处理的 token 数量。上下文窗口越大,模型可用于提供连贯一致的提示回答的信息就越多。

连续特征

#fundamentals

一种浮点特征,具有无限范围的可能值,例如温度或体重。

离散特征相对。

便利抽样

使用未以科学方法收集的数据集,以便快速运行实验。之后,务必改为使用以科学方法收集的数据集。

收敛

#fundamentals

损失值在每次迭代中的变化非常小或根本没有变化时,即达到收敛状态。例如,以下损失曲线表明,模型在大约 700 次迭代时收敛:

笛卡尔图。X 轴是损失。Y 轴是训练迭代次数。在前几次迭代中,损失非常高,但随后急剧下降。大约 100 次迭代后,损失仍在下降,但下降速度要慢得多。大约 700 次迭代后,损失保持不变。

当额外训练无法改进模型时,模型就会收敛

深度学习中,损失值有时会在许多次迭代中保持不变或几乎不变,然后才最终下降。在损失值长期保持不变的情况下,您可能会暂时产生错误的收敛感。

另请参阅早停法

如需了解详情,请参阅机器学习速成课程中的模型收敛和损失曲线

凸函数

一种函数,函数图像以上的区域为凸集。典型的凸函数形状类似于字母 U。例如,以下函数均为凸函数:

U 形曲线,每条曲线都有一个最低点。

相比之下,以下函数不是凸函数。请注意,图表上方的区域不是凸集:

一条 W 形曲线,具有两个不同的局部最低点。

严格凸函数只有一个局部最小值点,该点也是全局最小值点。经典的 U 形函数是严格凸函数。不过,有些凸函数(例如直线)则不是 U 形函数。

如需了解详情,请参阅机器学习速成课程中的收敛和凸函数

凸优化

使用梯度下降等数学技巧来寻找凸函数的最小值。机器学习方面的大量研究都是专注于如何通过公式将各种问题表示成凸优化问题,以及如何更高效地解决这些问题。

如需完整的详细信息,请参阅 Boyd 和 Vandenberghe 合著的 Convex Optimization(《凸优化》)。

凸集

欧氏空间的一个子集,在该子集中任意两点之间绘制的直线完全位于该子集中。例如,以下两种形状是凸集:

一个矩形插图。椭圆的另一个图示。

相比之下,以下两种形状不是凸集:

一张饼图的插图,其中缺少一个扇形。
          另一个极不规则的多边形示例。

卷积

#image

在数学中,简单来说,就是两个函数的混合。在机器学习中,卷积结合使用卷积过滤器和输入矩阵来训练权重

机器学习中的“卷积”一词通常是卷积运算卷积层的简称。

如果没有卷积,机器学习算法就需要学习大张量中每个单元各自的权重。例如,如果机器学习算法在 2K x 2K 的图片上进行训练,则必须找到 400 万个单独的权重。而使用卷积,机器学习算法只需算出卷积过滤器中每个单元的权重,大大减少了训练模型所需的内存。应用卷积滤波器时,只需在各个细胞中复制该滤波器,使每个细胞都乘以该滤波器。

如需了解详情,请参阅图像分类课程中的卷积神经网络简介

卷积滤波器

#image

卷积运算中的两个参与方之一。(另一个参与者是输入矩阵的一个切片。)卷积过滤器是一种矩阵,其与输入矩阵相同,但形状小一些。 例如,对于 28x28 的输入矩阵,滤波器可以是任何小于 28x28 的二维矩阵。

在照片处理中,卷积滤波器中的所有单元格通常都设置为由 1 和 0 组成的恒定模式。在机器学习中,卷积滤波器通常以随机数作为初始值,然后由网络训练出理想值。

如需了解详情,请参阅图片分类课程中的卷积

卷积层

#image

深度神经网络的一个层,卷积过滤器会在其中传递输入矩阵。以下面的 3x3 卷积过滤器为例:

一个 3x3 矩阵,具有以下值:[[0,1,0], [1,0,1], [0,1,0]]

以下动画展示了一个卷积层,其中包含 9 个涉及 5x5 输入矩阵的卷积运算。请注意,每个卷积运算都针对输入矩阵的不同 3x3 切片进行运算。生成的 3x3 矩阵(右侧)包含 9 次卷积运算的结果:

动画:显示两个矩阵。第一个矩阵是 5x5 矩阵:[[128,97,53,201,198], [35,22,25,200,195],
          [37,24,28,197,182], [33,28,92,195,179], [31,40,100,192,177]]。
          第二个矩阵是 3x3 矩阵:
          [[181,303,618], [115,338,605], [169,351,560]]。
          第二个矩阵是通过对 5x5 矩阵的不同 3x3 子集应用卷积滤波器 [[0, 1, 0], [1, 0, 1], [0, 1, 0]] 计算得出的。

如需了解详情,请参阅图片分类课程中的全连接层

卷积神经网络

#image

一种神经网络,其中至少有一层为卷积层。典型的卷积神经网络由以下层的某种组合构成:

卷积神经网络在某些类型的问题(例如图像识别)中取得了巨大成功。

卷积运算

#image

如下所示的两步数学运算:

  1. 卷积过滤器和输入矩阵切片执行元素级乘法。(输入矩阵切片与卷积过滤器具有相同的秩和大小。)
  2. 对生成的积矩阵中的所有值求和。

例如,考虑以下 5x5 输入矩阵:

5x5 矩阵:[[128,97,53,201,198], [35,22,25,200,195],
          [37,24,28,197,182], [33,28,92,195,179], [31,40,100,192,177]]。

现在,假设有以下 2x2 卷积过滤器:

2x2 矩阵:[[1, 0], [0, 1]]

每个卷积运算都涉及输入矩阵的单个 2x2 切片。例如,假设我们使用输入矩阵左上角的 2x2 切片。因此,此切片的卷积运算如下所示:

将卷积滤波器 [[1, 0], [0, 1]] 应用于输入矩阵的左上角 2x2 部分,即 [[128,97], [35,22]]。
          卷积滤波器会保留 128 和 22,但会将 97 和 35 归零。因此,卷积运算会产生值 150 (128+22)。

卷积层由一系列卷积运算组成,每个卷积运算都针对不同的输入矩阵切片。

费用

#Metric

损失的含义相同。

共同训练

一种半监督式学习方法,在满足以下所有条件时特别有用:

从本质上讲,共同训练是将独立信号放大为更强的信号。 例如,假设有一个分类模型,用于将每辆二手车归类为。一组预测性特征可能侧重于汽车的年份、品牌和型号等汇总特征;另一组预测性特征可能侧重于前车主的驾驶记录和汽车的保养历史记录。

关于协同训练的开创性论文是 Blum 和 Mitchell 撰写的使用协同训练组合带标签和不带标签的数据

反事实公平性

#responsible
#Metric

一种公平性指标,用于检查分类模型是否会针对以下两种个体生成相同的结果:一种个体与另一种个体完全相同,只是在一种或多种敏感属性方面有所不同。评估分类模型的反事实公平性是一种发现模型中潜在偏差来源的方法。

如需了解详情,请参阅以下任一内容:

覆盖偏差

#responsible

请参阅选择性偏差

歧义

#language

含义不明确的句子或词组。 歧义是自然语言理解的一个重大问题。 例如,标题“Red Tape Holds Up Skyscraper”存在歧义,因为 NLU 模型可能会从字面解读该标题,也可能会从象征角度进行解读。

影评人

#rl

Deep Q-Network 的含义相同。

交叉熵

#Metric

对数损失推广到多类别分类问题。交叉熵可以量化两种概率分布之间的差异。另请参阅困惑度

交叉验证

一种机制,使用从训练集中保留的一个或多个不重叠的数据子集测试模型,以估计该模型泛化到新数据的效果。

累积分布函数 (CDF)

#Metric

一种用于定义小于或等于目标值的样本频率的函数。例如,假设存在一个连续值的正态分布。CDF 表明,大约 50% 的样本应小于或等于平均值,大约 84% 的样本应小于或等于平均值加一个标准差。

D

数据分析

根据样本、测量结果和可视化内容理解数据。数据分析在首次收到数据集时且构建第一个模型之前特别有用。此外,数据分析在理解实验和调试系统问题方面也至关重要。

数据增强

#image

通过转换现有样本创建其他样本,人为地增加训练样本的范围和数量。例如,假设图像是其中一个特征,但数据集包含的图像样本不足以供模型学习有用的关联。 理想情况下,您需要向数据集添加足够的有标签图像,才能使模型正常训练。如果不可行,则可以通过数据增强旋转、拉伸和翻转每张图像,以生成原始照片的多个变体,这样可能会生成足够的有标签数据来实现很好的训练效果。

DataFrame

#fundamentals

一种热门的 pandas 数据类型,用于表示内存中的数据集

DataFrame 类似于表格或电子表格。DataFrame 的每一列都有一个名称(标题),每一行都由一个唯一编号标识。

DataFrame 中的每一列都以二维数组的形式进行结构化,但每一列都可以分配有自己的数据类型。

另请参阅官方 pandas.DataFrame 参考页面

数据并行处理

一种可扩展训练推理的方式,可将整个模型复制到多个设备上,然后将输入数据的一个子集传递给每个设备。数据并行处理可支持针对非常大的批次大小进行训练和推理;不过,数据并行处理要求模型足够小,以适应所有设备。

数据并行处理通常可加快训练和推理速度。

另请参阅模型并行性

Dataset API (tf.data)

#TensorFlow

一种高阶 TensorFlow API,用于读取数据并将其转换为机器学习算法所需的格式。tf.data.Dataset 对象表示一系列元素,其中每个元素都包含一个或多个张量tf.data.Iterator 对象可用于访问 Dataset 的元素。

数据集(data set 或 dataset)

#fundamentals

原始数据的集合,通常(但不一定)以以下格式之一进行整理:

  • 电子表格
  • 采用 CSV(逗号分隔值)格式的文件

决策边界

模型二元分类多类别分类问题中学习到的类别之间的分隔符。例如,在以下表示某个二元分类问题的图片中,决策边界是橙色类别和蓝色类别之间的分界线:

两种类别之间明确定义的边界。

决策森林

#df

由多个决策树创建的模型。决策森林通过汇总其决策树的预测结果来进行预测。常见的决策森林类型包括随机森林梯度提升树

如需了解详情,请参阅决策森林课程中的决策森林部分。

决策阈值

分类阈值的含义相同。

决策树

#df

一种监督式学习模型,由一组按层次结构组织的条件组成。例如,以下是一个决策树:

一个由 4 个按层次结构排列的条件组成的决策树,可得出 5 个叶。

解码器

#language

一般来说,任何将经过处理的密集内部表示形式转换为更原始的稀疏外部表示形式的机器学习系统。

解码器通常是较大模型的组成部分,并且经常与编码器配对使用。

序列到序列任务中,解码器从编码器生成的内部状态开始,预测下一个序列。

如需了解 Transformer 架构中解码器的定义,请参阅 Transformer

如需了解详情,请参阅机器学习速成课程中的大型语言模型

深度模型

#fundamentals

包含多个隐藏层神经网络

深度模型也称为深度神经网络

宽度模型相对。

一种非常流行的深度神经网络

深度模型的含义相同。

深度 Q 网络 (DQN)

#rl

Q-learning 中,一个深度神经网络会预测 Q 函数

评判家是深度 Q 网络的同义词。

人口统计均等

#responsible
#Metric

一种公平性指标,如果模型分类的结果不依赖于给定的敏感属性,则满足该指标。

例如,如果小人国人和巨人国人都申请了 Glubbdubdrib 大学,那么如果录取的小人国人百分比与录取的大人国人百分比相同,则实现了人口统计学上的平等,无论一个群体是否比另一个群体平均而言更符合条件。

均衡赔率机会均等形成对比,后者允许分类结果总体上取决于敏感属性,但不允许某些指定标准答案标签的分类结果取决于敏感属性。如需查看直观图表,了解在优化人口统计学均等性时需要做出的权衡,请参阅“通过更智能的机器学习避免歧视”

如需了解详情,请参阅机器学习速成课程中的公平性:人口统计学上的均等性

去噪

#language

一种常见的自我监督式学习方法,其中:

  1. 噪声是人为添加到数据集中的。
  2. 模型会尝试移除噪声。

去噪功能可实现从无标签示例中学习。 原始数据集用作目标或标签,而含噪数据用作输入。

部分掩码语言模型使用以下去噪方式:

  1. 通过屏蔽部分令牌,人为地向无标签句子添加噪声。
  2. 模型会尝试预测原始 token。

密集特征

#fundamentals

一种特征,其中大多数或所有值都不为零,通常是浮点值的 Tensor。例如,以下 10 元素张量是密集张量,因为其中 9 个值不为零:

8 3 7 5 2 4 0 4 9 6

稀疏特征相对。

密集层

全连接层的含义相同。

深度

#fundamentals

神经网络中以下各项的总和:

例如,具有 5 个隐藏层和 1 个输出层的神经网络的深度为 6。

请注意,输入层不会影响深度。

深度可分离卷积神经网络 (sepCNN)

#image

一种基于 Inception卷积神经网络架构,但其中的 Inception 模块被替换为深度可分离卷积。也称为 Xception。

深度可分离卷积(也简称为可分离卷积)将标准 3D 卷积分解为两个单独的卷积运算,这两个运算在计算上更高效:首先是深度为 1 (n ✕ n ✕ 1) 的深度卷积,然后是长度和宽度为 1 (1 ✕ 1 ✕ n) 的点状卷积。

如需了解详情,请参阅 Xception:使用深度可分离卷积的深度学习

派生标签

代理标签的含义相同。

设备

#TensorFlow
#GoogleCloud

一个多含义术语,具有以下两种可能的定义:

  1. 一类可运行 TensorFlow 会话的硬件,包括 CPU、GPU 和 TPU
  2. 加速器芯片(GPU 或 TPU)上训练机器学习模型时,实际操控张量嵌入的系统部分。设备在加速器芯片上运行。相比之下,主机通常在 CPU 上运行。

差分隐私

在机器学习中,一种匿名化方法,用于保护模型训练集中包含的任何敏感数据(例如个人信息)免遭泄露。这种方法可确保模型不会学习或记住有关特定个人的太多信息。为此,DP-SGD 会在模型训练期间进行抽样并添加噪声,以模糊单个数据点,从而降低泄露敏感训练数据的风险。

差分隐私也用于机器学习之外的领域。例如,数据科学家有时会在计算不同人口统计特征的产品使用情况统计信息时使用差分隐私来保护个人隐私。

降维

减少用于表示特征向量中特定特征的维度的数量,通常通过转换为嵌入向量来实现此操作。

维度

一个具有多重含义的术语,包括以下含义:

  • Tensor中的坐标级别数量。例如:

    • 标量有零个维度,如 ["Hello"]
    • 向量有一个维度,例如 [3, 5, 7, 11]
    • 矩阵有两个维度,例如 [[2, 4, 18], [5, 7, 14]]。 您可以使用一个坐标唯一指定一维向量中的特定单元;您需要使用两个坐标唯一指定二维矩阵中的特定单元。
  • 特征向量中的条目数。

  • 嵌入层中的元素数。

直接提示

#language
#generativeAI

零样本提示的含义相同。

离散特征

#fundamentals

一种特征,包含有限个可能值。例如,值可能仅为 animalvegetablemineral 的特征是离散(或分类)特征。

连续特征相对。

判别模型

一种通过一个或多个特征组成的集合预测标签模型。更正式地讲,判别模型会根据特征和权重定义输出的条件概率;即:

p(output | features, weights)

例如,如果一个模型要通过特征和权重预测某封电子邮件是否是垃圾邮件,那么该模型为判别模型。

绝大多数监督式学习模型(包括分类模型和回归模型)都是判别模型。

生成模型相对。

判别器

一种确定示例是真实还是虚假的系统。

或者,生成对抗网络中的子系统,用于确定生成器创建的样本是真实的还是虚假的。

如需了解详情,请参阅 GAN 课程中的判别器

差别性影响

#responsible

做出有关人员的决策,但这些决策对不同的人口子群组的影响不成比例。这通常是指算法决策过程对某些子群体的伤害或益处大于其他子群体的情况。

例如,假设某个算法用于确定小人国居民是否符合微型住宅贷款的申请条件,如果小人国居民的邮寄地址包含某个邮政编码,该算法更有可能将他们归类为“不符合条件”。如果大端序小人国居民比小端序小人国居民更可能拥有此邮政编码的邮寄地址,那么此算法可能会造成差别影响。

差别对待形成对比,后者侧重于当子群组特征是算法决策过程的显式输入时导致的不公平现象。

差别待遇

#responsible

在算法决策过程中纳入受试者的敏感属性,以便区别对待不同的人群子群组。

例如,假设有一种算法,可根据小人国居民在贷款申请中提供的数据来确定他们是否符合微型住宅贷款的条件。如果算法使用 Lilliputian 的派别(大端或小端)作为输入,则它会沿该维度实施差别对待。

差异化影响形成对比,后者侧重于算法决策对子群组的社会影响方面的差异,无论这些子群组是否是模型的输入。

蒸馏

#generativeAI

将一个模型(称为教师)的大小缩减为较小的模型(称为学生),并尽可能忠实地模拟原始模型的预测结果。知识蒸馏之所以有用,是因为较小的模型与较大的模型(教师)相比,具有以下两个主要优势:

  • 推理时间更短
  • 减少了内存和能耗用量

不过,学生的预测结果通常不如教师的预测结果。

蒸馏训练学生模型,以最大限度地减少基于学生模型和教师模型预测输出之间差异的损失函数

比较和对比蒸馏与以下术语:

如需了解详情,请参阅机器学习速成课程中的 LLM:微调、蒸馏和提示工程

分布式训练

给定特征标签的不同值的频次和范围。分布可反映特定值的可能性。

下图显示了两种不同分布的直方图:

  • 左侧:财富与拥有相应财富的人数之间的幂律分布。
  • 右侧是身高与拥有该身高的人数之间的正态分布。

两个直方图。一个直方图显示了幂律分布,其中 x 轴表示财富,y 轴表示拥有相应财富的人数。大多数人的财富很少,而少数人的财富却很多。另一个直方图显示正态分布,其中 x 轴表示身高,y 轴表示具有相应身高的人数。大多数人聚集在平均值附近。

了解每个特征和标签的分布情况有助于您确定如何归一化值和检测离群值

分布外是指未出现在数据集中的值或非常罕见的值。例如,如果数据集由猫的图片组成,那么土星的图片就会被视为分布外数据。

分裂式层次聚类

#clustering

请参阅层次聚类

降采样

#image

一个多含义术语,可以理解为下列两种含义之一:

  • 减少特征中的信息量,以便更有效地训练模型。例如,在训练图像识别模型之前,将高分辨率图像降采样为分辨率较低的格式。
  • 使用占比异常低、得到过度代表的类别样本训练模型,以改进未得到充分代表的类别的模型训练效果。 例如,在类别不平衡的数据集中,模型往往会学习到大量关于多数类的信息,但关于少数类的信息却不够。降采样有助于平衡多数类和少数类的训练量。

如需了解详情,请参阅机器学习速成课程中的数据集:不平衡的数据集

DQN

#rl

深度 Q 网络的缩写。

dropout 正规化

一种正则化形式,在训练神经网络时非常有用。Dropout 正规化的运作机制是,在一个梯度步中移除从神经网络层中随机选择的固定数量的单元。丢弃的单元越多,正则化就越强。这类似于训练神经网络以模拟较小网络的指数级规模集成。如需完整的详细信息,请参阅 Dropout: A Simple Way to Prevent Neural Networks from Overfitting(《Dropout:一种防止神经网络过拟合的简单方法》)。

动态

#fundamentals

经常或持续做某事。 在机器学习中,“动态”和“在线”是同义词。以下是机器学习中动态在线的常见用途:

  • 动态模型(或在线模型)是一种经常或持续重新训练的模型。
  • 动态训练(或在线训练)是指频繁或持续的训练过程。
  • 动态推理(或在线推理)是指根据需要生成预测的过程。

动态模型

#fundamentals

一种经常(甚至持续)重新训练的模型。动态模型是“终身学习者”,会不断适应不断变化的数据。动态模型也称为在线模型

静态模型相对。

E

即刻执行

#TensorFlow

一种 TensorFlow 编程环境,操作可在其中立即运行。相比之下,在图执行中调用的操作在得到明确评估之前不会运行。即刻执行是一种命令式接口,就像大多数编程语言中的代码一样。相比图执行程序,调试即刻执行程序通常要容易得多。

早停法

#fundamentals

一种正则化方法,涉及在训练损失停止下降之前结束训练。在早停法中,当验证数据集的损失开始增加时,即泛化性能变差时,您会故意停止训练模型。

提前退出相对。

推土机距离 (EMD)

#Metric

一种衡量两种分布相对相似度的指标。 推土机距离越小,分布越相似。

修改距离

#language
#Metric

衡量两个文本字符串彼此之间的相似程度。 在机器学习中,编辑距离非常有用,原因如下:

  • 编辑距离很容易计算。
  • 编辑距离可用于比较已知彼此相似的两个字符串。
  • 编辑距离可以确定不同字符串与给定字符串的相似程度。

编辑距离有多种定义,每种定义都使用不同的字符串操作。如需查看示例,请参阅 Levenshtein 距离

Einsum 表示法

一种用于描述如何组合两个张量的有效表示法。张量组合方式为:将一个张量的元素与另一个张量的元素相乘,然后将乘积相加。 Einsum 表示法使用符号来标识每个张量的轴,并重新排列这些相同的符号来指定新结果张量的形状。

NumPy 提供了一个通用的 Einsum 实现。

嵌入层

#language
#fundamentals

一种特殊的隐藏层,可针对高维分类特征进行训练,以逐步学习低维嵌入向量。与仅基于高维分类特征进行训练相比,嵌入层可让神经网络的训练效率大幅提高。

例如,地球目前支持约 73,000 种树。假设树种是模型中的一个特征,那么模型的输入层将包含一个长度为 73,000 的独热向量。 例如,baobab 可能会以如下方式表示:

一个包含 73,000 个元素的数组。前 6,232 个元素的值为 0。下一个元素的值为 1。最后 66,767 个元素的值为零。

一个包含 73,000 个元素的数组非常长。如果您不向模型添加嵌入层,则由于要乘以 72,999 个零,训练将非常耗时。假设您选择的嵌入层包含 12 个维度。因此,嵌入层将逐渐学习每种树木的新嵌入向量。

在某些情况下,哈希处理是嵌入层的合理替代方案。

如需了解详情,请参阅机器学习速成课程中的嵌入

嵌入空间

#language

更高维度的向量空间中的特征所映射到的 d 维向量空间。嵌入空间经过训练,可捕获对预期应用有意义的结构。

两个嵌入的点积可用于衡量两者之间的相似性。

嵌入向量

#language

任何 隐藏层中提取的浮点数数组,用于描述该隐藏层的输入。通常,嵌入向量是在嵌入层中训练的浮点数数组。例如,假设一个嵌入层必须学习地球上 73,000 种树木中每种树木的嵌入向量。以下数组可能就是猴面包树的嵌入向量:

一个包含 12 个元素的数组,每个元素都包含一个介于 0.0 和 1.0 之间的浮点数。

嵌入向量不是一堆随机数字。嵌入层通过训练来确定这些值,类似于神经网络在训练期间学习其他权重的方式。数组的每个元素都是树种在某个特征方面的评级。哪个元素代表哪种树种的特征?人类很难确定这一点。

嵌入向量在数学上令人称奇之处在于,相似的内容具有相似的浮点数集。例如,相似的树种比不相似的树种具有更相似的浮点数集。红杉和巨杉是相关的树种,因此它们将具有比红杉和椰子树更相似的一组浮点数。即使您使用相同的输入重新训练模型,嵌入向量中的数字也会在每次重新训练模型时发生变化。

经验累积分布函数(eCDF 或 EDF)

#Metric

基于真实数据集的实证测量结果累积分布函数。函数在 x 轴上任意点的值是数据集中小于或等于指定值的观测值的比例。

经验风险最小化 (ERM)

选择可最大限度减少训练集损失的函数。与结构风险最小化相对。

编码器

#language

一般来说,任何将原始、稀疏或外部表示形式转换为经过处理、更密集或更内部的表示形式的机器学习系统。

编码器通常是较大模型的组成部分,经常与解码器搭配使用。有些 Transformer 将编码器与解码器配对使用,不过其他 Transformer 只使用编码器或只使用解码器。

有些系统使用编码器的输出作为分类或回归网络的输入。

序列到序列任务中,编码器会接收输入序列并返回内部状态(一个向量)。然后,解码器使用该内部状态来预测下一个序列。

如需了解 Transformer 架构中编码器的定义,请参阅 Transformer

如需了解详情,请参阅机器学习速成课程中的大语言模型:什么是大语言模型

endpoints

可通过网络寻址的位置(通常为网址),服务可通过该位置访问。

集成学习

一组独立训练的模型,其预测结果会进行平均或汇总。在许多情况下,集成模型比单个模型能生成更好的预测结果。例如,随机森林是一种由多个决策树构建的集成学习模型。请注意,并非所有决策森林都是集成。

如需了解详情,请参阅机器学习速成课程中的随机森林

#df
#Metric

信息论中,用于描述概率分布的不可预测程度。或者,熵也可以定义为每个示例包含的信息量。当随机变量的所有值具有相同的概率时,分布的熵最大。

具有两个可能值“0”和“1”(例如,二元分类问题中的标签)的集合的熵具有以下公式:

  H = -p log p - q log q = -p log p - (1-p) * log (1-p)

其中:

  • H 是熵。
  • p 是“1”示例的比例。
  • q 是“0”示例的比例。请注意,q = (1 - p)
  • 对数通常是对数2。在本例中,熵单位为比特。

例如,假设情况如下:

  • 100 个示例包含值“1”
  • 300 个示例包含值“0”

因此,熵值为:

  • p = 0.25
  • q = 0.75
  • H = (-0.25)log2(0.25) - (0.75)log2(0.75) = 每个示例 0.81 位

完全平衡的集合(例如,200 个“0”和 200 个“1”)的每个示例的熵为 1.0 位。随着集合变得越来越不平衡,其熵会趋向于 0.0。

决策树中,熵有助于制定信息增益,从而帮助分裂器在分类决策树的增长过程中选择条件

将熵与以下对象进行比较:

熵通常称为香农熵

如需了解详情,请参阅决策森林课程中的使用数值特征进行二元分类的精确拆分器

环境

#rl

在强化学习中,包含智能体并允许智能体观察该世界的状态的世界。例如,所表示的世界可以是国际象棋之类的游戏,也可以是迷宫之类的现实世界。当代理对环境应用动作时,环境会在状态之间转换。

分集

#rl

在强化学习中,智能体为学习环境而进行的每次重复尝试。

周期数

#fundamentals

在训练时,对整个训练集的一次完整遍历,不会漏掉任何一个样本

一个周期表示 N/批次大小次训练迭代,其中 N 是示例总数。

例如,假设存在以下情况:

  • 该数据集包含 1,000 个示例。
  • 批次大小为 50 个样本。

因此,一个周期需要 20 次迭代:

1 epoch = (N/batch size) = (1,000 / 50) = 20 iterations

如需了解详情,请参阅机器学习速成课程中的线性回归:超参数

epsilon-greedy 策略

#rl

在强化学习中,一种政策,以 epsilon 概率遵循随机政策,否则遵循贪婪政策。例如,如果 epsilon 为 0.9,则政策有 90% 的时间遵循随机政策,有 10% 的时间遵循贪婪政策。

在连续的剧集中,算法会减小 epsilon 的值,以便从遵循随机政策转为遵循贪婪政策。通过调整政策,智能体首先会随机探索环境,然后贪婪地利用随机探索的结果。

机会均等

#responsible
#Metric

一种公平性指标,用于评估模型是否能针对敏感属性的所有值同样准确地预测出理想结果。换句话说,如果模型的理想结果是正类别,那么目标就是让所有组的真正例率保持一致。

机会平等与均衡赔率相关,后者要求所有群组的真正例率和假正例率都相同。

假设 Glubbdubdrib 大学允许小人国人和巨人国人参加严格的数学课程。Lilliputians 的中学提供完善的数学课程,绝大多数学生都符合大学课程的入学条件。Brobdingnagians 的中学根本不提供数学课程,因此,他们的学生中只有极少数人符合条件。如果合格学生被录取的机会均等,无论他们是小人国人还是巨人国人,那么对于“录取”这一首选标签,机会均等就满足了。

例如,假设有 100 名小人国人和 100 名巨人国人申请了 Glubbdubdrib 大学,录取决定如下:

表 1. Lilliputian 申请者(90% 符合条件)

  符合资格 不合格
已录取 45 3
已拒绝 45 7
总计 90 10
被录取的合格学生所占百分比:45/90 = 50%
被拒的不合格学生所占百分比:7/10 = 70%
被录取的小人国学生所占百分比:(45+3)/100 = 48%

 

表 2. Brobdingnagian 申请者(10% 符合条件):

  符合资格 不合格
已录取 5 9
已拒绝 5 81
总计 10 90
符合条件的学生录取百分比:5/10 = 50%
不符合条件的学生拒绝百分比:81/90 = 90%
Brobdingnagian 学生总录取百分比:(5+9)/100 = 14%

上述示例满足了接受合格学生的平等机会,因为合格的利立浦特人和布罗卜丁奈格人都有一半的几率被录取。

虽然满足了机会均等,但未满足以下两个公平性指标:

  • 人口统计均等:Lilliputian 和 Brobdingnagian 学生被大学录取的机会不同;48% 的 Lilliputian 学生被录取,但只有 14% 的 Brobdingnagian 学生被录取。
  • 赔率均等化:虽然符合条件的小人国学生和巨人国学生被录取的几率相同,但不符合条件的小人国学生和巨人国学生被拒绝的几率相同这一额外限制条件并未得到满足。不合格的利立浦特人的拒绝率为 70%,而不合格的布罗卜丁奈格巨人的拒绝率为 90%。

如需了解详情,请参阅机器学习速成课程中的公平性:机会平等

均衡赔率

#responsible
#Metric

一种公平性指标,用于评估模型是否能针对敏感属性的所有值,同样准确地预测正类别负类别的结果,而不仅仅是其中一个类别。换句话说,所有组的真正例率假负例率都应相同。

均衡赔率与机会均等相关,后者仅关注单个类别(正类别或负类别)的错误率。

例如,假设 Glubbdubdrib 大学允许小人国人和巨人国人同时参加一项严格的数学课程。Lilliputians 的中学提供全面的数学课程,绝大多数学生都符合大学课程的入学条件。Brobdingnagians 的中学根本不提供数学课程,因此,他们的学生中只有极少数人符合条件。只要满足以下条件,即可实现均衡赔率:无论申请者是小人国人还是巨人国人,如果他们符合条件,被该计划录取的可能性都相同;如果他们不符合条件,被拒绝的可能性也相同。

假设有 100 名小人国人和 100 名巨人国人申请了 Glubbdubdrib 大学,录取决定如下:

表 3. Lilliputian 申请者(90% 符合条件)

  符合资格 不合格
已录取 45 2
已拒绝 45 8
总计 90 10
被录取的合格学生所占百分比:45/90 = 50%
被拒的不合格学生所占百分比:8/10 = 80%
被录取的 Lilliputian 学生总数所占百分比:(45+2)/100 = 47%

 

表 4. Brobdingnagian 申请者(10% 符合条件):

  符合资格 不合格
已录取 5 18
已拒绝 5 72
总计 10 90
符合条件的学生被录取百分比:5/10 = 50%
不符合条件的学生被拒绝百分比:72/90 = 80%
Brobdingnagian 学生被录取总百分比:(5+18)/100 = 23%

由于符合条件的小人国学生和巨人国学生被录取的概率均为 50%,而不符合条件的小人国学生和巨人国学生被拒绝的概率均为 80%,因此满足了赔率均等条件。

“监督学习中的机会平等”中对均衡赔率的正式定义如下:“如果预测变量 Ŷ 和受保护属性 A 在以结果 Y 为条件的情况下相互独立,则预测变量 Ŷ 满足关于受保护属性 A 和结果 Y 的均衡赔率。”

Estimator

#TensorFlow

已弃用的 TensorFlow API。使用 tf.keras 而不是 Estimator。

evals

#language
#generativeAI
#Metric

主要用作 LLM 评估的缩写。 更广泛地说,evals 是任何形式的评估的缩写。

评估

#language
#generativeAI
#Metric

衡量模型质量或比较不同模型的过程。

若要评估监督式机器学习模型,您通常需要根据验证集测试集来判断模型。评估 LLM 通常涉及更广泛的质量和安全性评估。

示例

#fundamentals

一行特征的值,可能还包含一个标签监督式学习中的示例分为两大类:

  • 有标签样本包含一个或多个特征和一个标签。在训练期间使用有标签的示例。
  • 无标签样本包含一个或多个特征,但不包含标签。在推理期间会使用无标签样本。

例如,假设您正在训练一个模型,以确定天气条件对学生考试成绩的影响。以下是三个带标签的示例:

功能 标签
温度 湿度 压力 测试分数
15 47 998 良好
19 34 1020 极佳
18 92 1012

以下是三个未标记的示例:

温度 湿度 压力  
12 62 1014  
21 47 1017  
19 41 1021  

数据集的行通常是示例的原始来源。 也就是说,一个示例通常由数据集中的部分列组成。此外,示例中的特征还可以包括合成特征,例如特征交叉

如需了解详情,请参阅“机器学习简介”课程中的监督式学习

经验回放

#rl

在强化学习中,一种用于减少训练数据中时间相关性的 DQN 技术。代理将状态转换存储在回放缓冲区中,然后从回放缓冲区中抽样转换以创建训练数据。

实验者偏差

#responsible

请参阅确认偏差

梯度爆炸问题

#seq

深度神经网络(尤其是循环神经网络)中的梯度出人意料地变得陡峭(高)的趋势。陡峭的梯度通常会导致深度神经网络中每个节点权重发生非常大的更新。

如果模型出现梯度爆炸问题,则很难或无法进行训练。梯度裁剪可以缓解此问题。

梯度消失问题相对。

F

F1

#Metric

一种“汇总”二元分类指标,同时依赖于精确率召回率。公式如下:

$$F{_1} = \frac{\text{2 * precision * recall}} {\text{precision + recall}}$$

真实性

#generativeAI

在机器学习领域中,一种描述模型(其输出基于现实)的属性。事实性是一个概念,而不是一个指标。 例如,假设您向大型语言模型发送以下提示

食盐的化学式是什么?

如果模型侧重于事实性,则会回答:

NaCl

人们很容易认为所有模型都应基于事实。不过,某些提示(例如以下提示)应促使生成式 AI 模型优化创意性,而不是事实性

给我讲一个关于宇航员和毛毛虫的五行打油诗。

这样创作出的五行打油诗不太可能基于现实。

事实依据相对。

公平性约束

#responsible
对算法应用限制条件,以确保满足一项或多项公平性定义。公平性限制的示例包括:

公平性指标

#responsible
#Metric

可衡量的“公平性”的数学定义。 一些常用的公平性指标包括:

许多公平性指标是互斥的;请参阅公平性指标互不相容

假负例 (FN)

#fundamentals
#Metric

被模型错误地预测为负类别的样本。例如,模型预测某封电子邮件不是垃圾邮件(负类别),但该电子邮件实际上是垃圾邮件

假负例率

#Metric

模型错误地将实际正例预测为负例的比例。以下公式用于计算假负率:

$$\text{false negative rate} = \frac{\text{false negatives}}{\text{false negatives} + \text{true positives}}$$

如需了解详情,请参阅机器学习速成课程中的阈值和混淆矩阵

假正例 (FP)

#fundamentals
#Metric

被模型错误地预测为正类别的样本。例如,模型预测某封电子邮件是垃圾邮件(正类别),但该电子邮件实际上不是垃圾邮件

如需了解详情,请参阅机器学习速成课程中的阈值和混淆矩阵

假正例率 (FPR)

#fundamentals
#Metric

模型错误地将实际负例预测为正例的比例。以下公式用于计算假正率:

$$\text{false positive rate} = \frac{\text{false positives}}{\text{false positives} + \text{true negatives}}$$

假正例率是 ROC 曲线的 x 轴。

如需了解详情,请参阅机器学习速成课程中的分类:ROC 和 AUC

快速衰减

#language
#generativeAI

一种用于提升 LLM 性能的训练技术。快速衰减是指在训练期间快速降低学习速率。此策略有助于防止模型对训练数据出现过拟合,并提高泛化能力。

功能

#fundamentals

机器学习模型的输入变量。一个示例包含一个或多个特征。例如,假设您正在训练一个模型,以确定天气条件对学生考试成绩的影响。下表显示了三个示例,每个示例都包含三个特征和一个标签:

功能 标签
温度 湿度 压力 测试分数
15 47 998 92
19 34 1020 84
18 92 1012 87

标签相对。

如需了解详情,请参阅“机器学习简介”课程中的监督式学习

特征组合

#fundamentals

通过“组合”分类分桶特征形成的合成特征

例如,假设有一个“情绪预测”模型,它使用以下四个区间之一来表示温度:

  • freezing
  • chilly
  • temperate
  • warm

并以以下三个区间之一表示风速:

  • still
  • light
  • windy

如果不使用特征交叉,线性模型会针对上述七个不同的分桶分别进行独立训练。因此,模型会基于 freezing 进行训练,而不会基于 windy 进行训练。

或者,您也可以创建温度和风速的特征交叉。此合成特征将具有以下 12 个可能的值:

  • freezing-still
  • freezing-light
  • freezing-windy
  • chilly-still
  • chilly-light
  • chilly-windy
  • temperate-still
  • temperate-light
  • temperate-windy
  • warm-still
  • warm-light
  • warm-windy

借助特征交叉,模型可以了解freezing-windy天和freezing-still天之间的情绪差异。

如果您使用两个各自具有许多不同分桶的特征创建合成特征,则生成的特征交叉将具有大量可能的组合。例如,如果一个特征有 1,000 个分桶,另一个特征有 2,000 个分桶,那么生成的特征交叉就有 2,000,000 个分桶。

从形式上讲,交叉是笛卡尔积

特征交叉主要用于线性模型,很少用于神经网络。

如需了解详情,请参阅机器学习速成课程中的类别数据:特征交叉

特征工程

#fundamentals
#TensorFlow

一种流程,包括以下步骤:

  1. 确定哪些特征可能在训练模型方面非常有用。
  2. 将数据集中的原始数据转换为这些特征的高效版本。

例如,您可能会认为 temperature 是一项有用的功能。然后,您可以尝试使用分桶来优化模型可从不同 temperature 范围中学习的内容。

特征工程有时称为特征提取特征化

如需了解详情,请参阅机器学习速成课程中的数值数据:模型如何使用特征向量提取数据

特征提取

一个多含义术语,具有下列两种含义之一:

特征重要性

#df
#Metric

变量重要性的含义相同。

功能集

#fundamentals

机器学习模型训练时采用的一组特征。例如,用于预测房价的模型的简单特征集可能包含邮政编码、房产面积和房产状况。

特征规范

#TensorFlow

介绍从 tf.Example 协议缓冲区提取特征数据所需的信息。由于 tf.Example 协议缓冲区只是一个数据容器,因此您必须指定以下内容:

  • 要提取的数据(即特征的键)
  • 数据类型(例如,float 或 int)
  • 长度(固定或可变)

特征向量

#fundamentals

构成示例特征值数组。特征向量在训练推理期间作为输入。例如,具有两个离散特征的模型的特征向量可能如下所示:

[0.92, 0.56]

四个层:一个输入层、两个隐藏层和一个输出层。
          输入层包含两个节点,一个节点包含值 0.92,另一个节点包含值 0.56。

每个示例都为特征向量提供不同的值,因此下一个示例的特征向量可能如下所示:

[0.73, 0.49]

特征工程决定了如何在特征向量中表示特征。例如,具有 5 个可能值的二元分类特征可以使用独热编码来表示。在这种情况下,特定示例的特征向量部分将包含四个零和一个位于第三位置的 1.0,如下所示:

[0.0, 0.0, 1.0, 0.0, 0.0]

再举一例,假设您的模型包含三个特征:

  • 采用独热编码方式表示的具有个可能值的二元分类特征;例如:[0.0, 1.0, 0.0, 0.0, 0.0]
  • 另一个二元分类特征,具有三个可能的值,以独热编码表示;例如:[0.0, 0.0, 1.0]
  • 浮点特征;例如:8.3

在这种情况下,每个示例的特征向量将由 9 个值表示。根据上一个列表中的示例值,特征向量将为:

0.0
1.0
0.0
0.0
0.0
0.0
0.0
1.0
8.3

如需了解详情,请参阅机器学习速成课程中的数值数据:模型如何使用特征向量提取数据

特征化

从文档或视频等输入源中提取特征并将这些特征映射到特征向量的过程。

一些机器学习专家将“featurization”用作特征工程特征提取的同义词。

联合学习

是一种分布式机器学习方法,使用驻留在智能手机等设备上的分散样本训练机器学习模型。在联邦学习中,一部分设备会从中央协调服务器下载当前模型。设备会使用存储在设备上的示例来改进模型。然后,设备会将模型改进(但不会上传训练示例)上传到协调服务器,在服务器上,这些改进会与其他更新聚合,从而生成改进的全局模型。聚合完成后,设备计算出的模型更新不再需要,可以舍弃。

由于训练示例永远不会上传,因此联邦学习遵循聚焦数据收集和数据最小化的隐私原则。

如需了解详情,请参阅联邦学习漫画(没错,就是漫画)。

反馈环

#fundamentals

在机器学习中,一种模型预测会影响同一模型或其他模型的训练数据的情况。例如,推荐电影的模型会影响用户看到的电影,进而影响后续的电影推荐模型。

如需了解详情,请参阅机器学习速成课程中的生产环境机器学习系统:需要提出的问题

前馈神经网络 (FFN)

没有循环或递归连接的神经网络。例如,传统深度神经网络属于前馈神经网络。与循环的循环神经网络相对。

少量样本学习

一种机器学习方法,通常用于对象分类,旨在仅通过少量训练示例来训练有效的分类模型

另请参阅单样本学习零样本学习

少样本提示

#language
#generativeAI

包含多个(“少量”)示例的提示,用于演示大语言模型应如何回答。例如,以下冗长的问题包含两个示例,向大型语言模型展示了如何回答查询。

一个提示的组成部分 备注
指定国家/地区的官方货币是什么? 您希望 LLM 回答的问题。
法国:欧元 举个例子。
英国:英镑 再举一个例子。
印度 实际查询。

零样本提示单样本提示相比,少样本提示通常会产生更理想的结果。不过,少样本提示需要更长的提示。

少样本提示是一种应用于基于提示的学习少量样本学习

如需了解详情,请参阅机器学习速成课程中的提示工程

小提琴

#language

一个以 Python 为先的配置库,用于设置函数和类的值,而无需侵入式代码或基础架构。对于 Pax(以及其他机器学习代码库),这些函数和类表示模型训练 超参数

Fiddle 假设机器学习代码库通常分为以下几部分:

  • 库代码,用于定义层和优化器。
  • 数据集“粘合”代码,用于调用库并将所有内容连接在一起。

Fiddle 以未评估且可变的形式捕获粘合代码的调用结构。

微调

#language
#image
#generativeAI

预训练模型执行的第二次特定任务训练,以针对特定使用情形优化其参数。例如,某些大型语言模型的完整训练序列如下所示:

  1. 预训练:在庞大的通用数据集(例如所有英文版维基百科页面)上训练大语言模型。
  2. 微调:训练预训练模型以执行特定任务,例如回答医疗查询。微调通常涉及数百或数千个专注于特定任务的示例。

再举一例,大型图片模型的完整训练序列如下所示:

  1. 预训练:使用庞大的通用图片数据集(例如 Wikimedia Commons 中的所有图片)训练大型图片模型。
  2. 微调:训练预训练模型以执行特定任务,例如生成虎鲸图片。

微调可能需要采用以下策略的任意组合:

  • 修改预训练模型的所有现有参数这有时称为“完全精细调整”。
  • 仅修改预训练模型的部分现有参数(通常是离输出层最近的层),同时保持其他现有参数不变(通常是离输入层最近的层)。请参阅参数高效调优
  • 添加更多层,通常是在最接近输出层的现有层之上。

微调是一种迁移学习。因此,微调可能会使用与训练预训练模型时不同的损失函数或模型类型。例如,您可以对预训练的大型图像模型进行微调,以生成一个回归模型,该模型可返回输入图像中鸟的数量。

比较和对比微调与以下术语:

如需了解详情,请参阅机器学习速成课程中的微调

Flash 模型

#generativeAI

一系列相对较小的 Gemini 模型,经过优化,可实现快速响应和低延迟。Flash 模型专为需要快速响应和高吞吐量的各种应用而设计。

Flax

#language

一个基于 JAX 构建的用于深度学习的高性能开源。Flax 提供用于训练 神经网络的函数,以及用于评估其性能的方法。

Flaxformer

#language

一个基于 Flax 构建的开源 Transformer ,主要用于自然语言处理和多模态研究。

忘记门控

#seq

长短期记忆单元的一部分,用于调节信息在单元中的流动。 遗忘门通过决定从细胞状态中舍弃哪些信息来保持上下文。

基础模型

#generativeAI
#Metric

一种非常大的预训练模型,使用庞大而多样的训练集进行训练。基础模型可以执行以下两项操作:

  • 能够很好地响应各种请求。
  • 作为基础模型,用于进一步微调或其他自定义。

换句话说,基础模型在一般意义上已经非常强大,但可以进一步自定义,以便在特定任务中发挥更大作用。

成功次数所占的比例

#generativeAI
#Metric

用于评估机器学习模型生成的文本的指标。 成功率是指“成功”生成的文本输出数量除以生成的文本输出总数量。例如,如果大型语言模型生成了 10 个代码块,其中 5 个成功,则成功率将为 50%。

虽然成功率在整个统计学中都非常有用,但在机器学习中,此指标主要用于衡量可验证的任务,例如代码生成或数学问题。

完整 softmax

softmax 的含义相同。

候选采样相对。

如需了解详情,请参阅机器学习速成课程中的神经网络:多类别分类

全连接层

一种隐藏层,其中每个节点都与后续隐藏层中的每个节点相连。

全连接层又称为密集层

函数转换

一种以函数作为输入并返回转换后的函数作为输出的函数。JAX 使用函数转换。

G

GAN

生成对抗网络的缩写。

Gemini

#language
#image
#generativeAI

由 Google 最先进的 AI 组成的生态系统。此生态系统的要素包括:

  • 各种 Gemini 模型
  • 与 Gemini 模型进行交互的对话式界面。 用户输入提示,Gemini 会针对这些提示给出回答。
  • 各种 Gemini API。
  • 基于 Gemini 模型的各种商业产品;例如 Gemini for Google Cloud

Gemini 模型

#language
#image
#generativeAI

Google 基于先进的 Transformer多模态模型。Gemini 模型专门设计用于与代理集成。

用户可以通过多种方式与 Gemini 模型互动,包括通过交互式对话界面和 SDK。

Gemma

#generativeAI

一系列轻量级开放模型,采用与 Gemini 模型相同的研究成果和技术构建而成。我们提供了多种不同的 Gemma 模型,每种模型都提供不同的功能,例如视觉、代码和指令遵循。如需了解详情,请参阅 Gemma

GenAI 或 genAI

#language
#image
#generativeAI

生成式 AI 的缩写。

泛化

#fundamentals

模型针对以前未见过的新数据做出正确预测的能力。可以泛化的模型与过拟合的模型正好相反。

如需了解详情,请参阅机器学习速成课程中的泛化

泛化曲线

#fundamentals

一张图,其中同时显示了训练损失验证损失迭代次数之间的函数关系。

泛化曲线可以帮助您检测可能出现的过拟合。例如,以下泛化曲线表明出现过拟合,因为验证损失最终明显高于训练损失。

直角坐标曲线图,其中 y 轴标记为“损失”,x 轴标记为“迭代次数”。系统会显示两个图。一个图显示的是训练损失,另一个图显示的是验证损失。
          这两个图刚开始相似,但训练损失最终会下降,远低于验证损失。

如需了解详情,请参阅机器学习速成课程中的泛化

广义线性模型

一种基于其他类型噪声(例如 Poisson 噪声或类别噪声)的其他类型模型的泛化,基于 Gaussian 噪声最小二乘回归模型。广义线性模型的示例包括:

可以通过凸优化找到广义线性模型的参数。

广义线性模型具有以下特性:

  • 最优的最小二乘回归模型的平均预测结果等于训练数据的平均标签。
  • 最优的逻辑回归模型预测的平均概率等于训练数据的平均标签。

广义线性模型的能力受其特征的限制。与深度模型不同,广义线性模型无法“学习新特征”。

生成的文本

#language
#generativeAI

一般来说,指机器学习模型输出的文本。在评估大型语言模型时,某些指标会将生成的文本与参考文本进行比较。例如,假设您要确定某个机器学习模型从法语到荷兰语的翻译效果。在此示例中:

  • 生成的文本是机器学习模型输出的荷兰语翻译。
  • 参考文本是人工翻译人员(或软件)创建的荷兰语译文。

请注意,某些评估策略不涉及参考文本。

生成对抗网络 (GAN)

一种用于创建新数据的系统,其中生成器负责创建数据,而判别器负责确定创建的数据是否有效。

如需了解详情,请参阅生成对抗网络课程

生成式 AI

#language
#image
#generativeAI

一个新兴的变革性领域,没有正式定义。 不过,大多数专家都认为,生成式 AI 模型可以创建(“生成”)以下类型的内容:

  • 复杂
  • 连贯
  • 原图

生成式 AI 的示例包括:

  • 大语言模型,可生成复杂的原创文本并回答问题。
  • 图片生成模型,可生成独一无二的图片。
  • 音频和音乐生成模型,可以创作原创音乐或生成逼真的语音。
  • 视频生成模型,可生成原创视频。

包括 LSTMRNN 在内的一些早期技术也可以生成原创且连贯的内容。一些专家认为这些早期技术属于生成式 AI,而另一些专家则认为,真正的生成式 AI 需要生成比这些早期技术更复杂的输出。

预测性机器学习相对。

生成模型

实际上是指执行以下任一操作的模型:

  • 从训练数据集创建(生成)新样本。 例如,用诗歌数据集进行训练后,生成模型可以创作诗歌。生成对抗网络生成器部分属于此类别。
  • 确定新样本来自训练集或通过创建训练集的机制创建的概率。例如,用包含英文句子的数据集进行训练后,生成模型可确定新输入是有效英文句子的概率。

从理论上讲,生成模型可以辨别数据集中样本或特定特征的分布情况。具体来说:

p(examples)

非监督式学习模型属于生成模型。

判别模型相对。

生成器

生成对抗网络中用于创建新示例的子系统。

判别模型相对。

Gini 不纯度

#df
#Metric

entropy 类似的指标。拆分器使用从 Gini 不纯度或熵派生的值来为分类决策树组成条件信息增益源自熵。 对于从 Gini 不纯度派生的指标,目前还没有普遍接受的等效术语;不过,这个未命名的指标与信息增益同样重要。

Gini 不纯度也称为 Gini 指数,或简称为 Gini

黄金数据集

一组手动整理的数据,用于捕获标准答案。团队可以使用一个或多个黄金数据集来评估模型的质量。

有些黄金数据集捕获了不同子领域的标准答案。例如,用于图片分类的黄金数据集可能会捕获光照条件和图片分辨率。

标准答案

#language
#generativeAI

已知为优质的答案。例如,假设存在以下提示

2 + 2

理想的黄金回答是:

4

Google AI Studio

Google 提供的一款工具,可提供简单易用的界面,用于测试和构建使用 Google 大语言模型的应用。 如需了解详情,请参阅 Google AI Studio 首页

GPT(生成式预训练转换器)

#language

OpenAI 开发的一系列基于 Transformer大语言模型

GPT 变体可应用于多种模态,包括:

  • 图片生成(例如 ImageGPT)
  • 根据文字生成图像(例如 DALL-E)。

渐变色

相对于所有自变量的偏导数向量。在机器学习中,梯度是模型函数偏导数的向量。梯度指向最高速上升的方向。

梯度累积

一种反向传播技术,它仅在每个周期更新一次参数,而不是在每次迭代时更新。处理完每个小批次后,梯度累积只会更新梯度总和。然后,在处理完周期中的最后一个小批次后,系统最终会根据所有梯度变化的总和来更新参数。

批次大小与可用于训练的内存量相比非常大时,梯度累积非常有用。当内存出现问题时,人们自然会倾向于减小批次大小。不过,在正常反向传播中,减小批次大小会增加参数更新次数。梯度累积使模型能够避免内存问题,同时仍能高效训练。

梯度提升(决策)树 (GBT)

#df

一种决策森林,其中:

如需了解详情,请参阅决策森林课程中的梯度提升决策树

梯度提升

#df

一种训练算法,其中训练弱模型以迭代方式提高强模型的质量(减少损失)。例如,弱模型可以是线性模型或小型决策树模型。强模型成为所有之前训练的弱模型的总和。

在最简单的梯度提升形式中,每次迭代都会训练一个弱模型来预测强模型的损失梯度。然后,通过减去预测的梯度来更新强模型的输出,类似于梯度下降

$$F_{0} = 0$$ $$F_{i+1} = F_i - \xi f_i $$

其中:

  • $F_{0}$ 是初始强模型。
  • $F_{i+1}$ 是下一个强模型。
  • $F_{i}$ 是当前的强模型。
  • $\xi$ 是一个介于 0.0 和 1.0 之间的值,称为收缩率,类似于梯度下降中的学习率
  • $f_{i}$ 是经过训练用于预测 $F_{i}$ 的损失梯度的弱模型。

梯度提升的现代变体还在计算中纳入了损失的二阶导数(Hessian)。

决策树通常用作梯度提升中的弱模型。请参阅梯度提升(决策)树

梯度裁剪

#seq

一种常用机制,用于在使用梯度下降训练模型时,通过人为限制(剪裁)梯度的最大值来缓解梯度爆炸问题

梯度下降法

#fundamentals

一种可最大限度减少损失的数学技术。 梯度下降法以迭代方式调整权重偏差,逐渐找到可将损失降至最低的最佳组合。

梯度下降比机器学习早得多。

如需了解详情,请参阅机器学习速成课程中的线性回归:梯度下降

图表

#TensorFlow

TensorFlow 中的一种计算规范。图中的节点表示操作。边缘具有方向,表示将某项操作的结果(一个Tensor)作为一个操作数传递给另一项操作。可以使用 TensorBoard 可视化图。

图执行

#TensorFlow

一种 TensorFlow 编程环境,在该环境中,图执行程序会先构造一个,然后执行该图的所有部分或某些部分。图执行是 TensorFlow 1.x 中的默认执行模式。

即刻执行相对。

贪婪策略

#rl

在强化学习中,一种始终选择预期回报最高的操作的策略

标准答案关联性

一种模型的属性,其输出基于(“依据”)特定的源材料。例如,假设您将一本完整的物理教科书作为输入内容(“上下文”)提供给大语言模型。然后,您向该大语言模型提出一个物理学问题。 如果模型的回答反映了该教科书中的信息,则表示该模型以该教科书为依据

请注意,接地模型并不总是事实模型。例如,输入的物理教科书可能包含错误。

标准答案

#fundamentals

现实。

实际发生的事情。

例如,假设有一个二元分类模型,用于预测大学一年级学生是否会在六年内毕业。此模型的标准答案是相应学生是否在 6 年内实际毕业。

群体归因偏差

#responsible

假设某个人的真实情况适用于相应群体中的每个人。如果使用便利抽样收集数据,群体归因偏差的影响会加剧。在非代表性样本中,归因可能不会反映现实。

另请参阅群外同质性偏差群内偏差。另请参阅机器学习速成课程中的公平性:偏差类型,了解详情。

H

幻觉

#language

生成式 AI 模型生成看似合理但实际上不正确的输出,而该模型声称自己正在对现实世界做出断言。例如,如果生成式 AI 模型声称巴拉克·奥巴马于 1865 年去世,则属于产生幻觉

哈希技术

机器学习中对分类数据进行分桶的机制,尤其适合以下情形:类别数量庞大,但实际出现在数据集中的类别数量相对较小。

例如,地球上约有 7.3 万种树。您可以用 7.3 万个单独的分类桶表示所有 7.3 万种树中的每一种。或者,如果实际出现在数据集中的树只有 200 种,您可以进行哈希处理,将这些树种划分到约 500 个桶中。

一个桶可能包含多个树种。例如,哈希可能会将“猴面包树”和“红枫”这两个基因相异的树种放入同一个桶中。无论如何,哈希仍然是将大型分类集合映射到所选数量的桶的好方法。通过以确定的方式对值进行分组,哈希将具有大量可能值的分类特征变为更少数量的值。

如需了解详情,请参阅机器学习速成课程中的类别型数据:词汇和独热编码

启发法

一种简单且可快速实施的问题解决方案。例如,“采用启发法,我们实现了 86% 准确率。当我们改为使用深度神经网络时,准确率上升到 98%。”

隐藏层

#fundamentals

神经网络中介于输入层(特征)和输出层(预测)之间的层。每个隐藏层都包含一个或多个神经元。 例如,以下神经网络包含两个隐藏层,第一个隐藏层有 3 个神经元,第二个隐藏层有 2 个神经元:

四个层级。第一个层是包含两个特征的输入层。第二层是包含三个神经元的隐藏层。第三层是包含两个神经元的隐藏层。第四层是输出层。每个特征都包含三条边,每条边都指向第二层中的不同神经元。第二层中的每个神经元都包含两条边,每条边都指向第三层中的不同神经元。第三层中的每个神经元都包含一条边,每条边都指向输出层。

深度神经网络包含多个隐藏层。例如,上图所示的是一个深度神经网络,因为该模型包含两个隐藏层。

如需了解详情,请参阅机器学习速成课程中的神经网络:节点和隐藏层

层次聚类

#clustering

一类聚类算法,用于创建聚类树。层次聚类非常适合分层数据,例如植物分类。层次聚类算法有两种类型:

  • 凝聚式层次聚类首先将每个样本分配到其自己的聚类,然后以迭代方式合并最近的聚类,以创建层次树。
  • 分裂式层次聚类首先将所有样本分组到一个聚类,然后以迭代方式将该聚类划分为一个层次树。

形心聚类相对。

如需了解详情,请参阅聚类课程中的聚类算法

爬坡

一种用于迭代改进(“爬坡”)机器学习模型的算法,直到模型不再改进(“到达山顶”)为止。该算法的一般形式如下:

  1. 构建初始模型。
  2. 通过对训练微调方式进行小幅调整,创建新的候选模型。这可能需要使用略有不同的训练集或不同的超参数。
  3. 评估新的候选模型,并采取以下操作之一:
    • 如果候选模型的表现优于初始模型,则该候选模型会成为新的初始模型。在这种情况下,请重复第 1 步、第 2 步和第 3 步。
    • 如果没有模型优于初始模型,则说明您已到达山顶,应停止迭代。

如需有关超参数调节的指导,请参阅深度学习调优实战手册。如需有关特征工程的指导,请参阅机器学习速成课程的数据模块。

合页损失函数

#Metric

一类用于分类损失函数,旨在找到与每个训练样本尽可能远的决策边界,从而使样本和边界之间的裕度最大化。核支持向量机使用合页损失函数(或相关函数,例如平方合页损失函数)。对于二元分类,铰链损失函数的定义如下:

$$\text{loss} = \text{max}(0, 1 - (y * y'))$$

其中,y 是真实标签(-1 或 +1),y'分类模型的原始输出:

$$y' = b + w_1x_1 + w_2x_2 + … w_nx_n$$

因此,铰链损失与 (y * y') 的对比图如下所示:

一个由两条相连的线段组成的直角坐标曲线图。第一个线段从 (-3, 4) 开始,到 (1, 0) 结束。第二条线段从 (1, 0) 开始,并以 0 的斜率无限延伸。

历史偏差

#responsible

一种已经存在于现实世界中并已进入数据集的偏见。这些偏差往往会反映出既有的文化刻板印象、人口统计学不平等以及对某些社会群体的偏见。

例如,假设有一个分类模型,用于预测贷款申请人是否会拖欠贷款,该模型是根据 20 世纪 80 年代来自两个不同社区的本地银行的历史贷款违约数据训练的。如果社区 A 的过往申请人拖欠贷款的可能性是社区 B 的申请人的 6 倍,模型可能会学习到历史偏差,导致模型不太可能批准社区 A 的贷款,即使导致该社区拖欠率较高的历史条件已不再相关。

如需了解详情,请参阅机器学习速成课程中的公平性:偏差类型

留出数据

训练期间故意不使用(“留出”)的样本验证数据集测试数据集都属于留出数据。留出数据有助于评估模型向训练时所用数据之外的数据进行泛化的能力。与基于训练数据集的损失相比,基于留出数据集的损失有助于更好地估算基于未见过的数据集的损失。

主机

#TensorFlow
#GoogleCloud

加速器芯片(GPU 或 TPU)上训练机器学习模型时,控制以下两方面的系统部分:

  • 代码的整体流程。
  • 输入流水线的提取和转换。

主机通常在 CPU 上运行,而不是在加速器芯片上运行;设备在加速器芯片上处理张量

人工评估

#language
#generativeAI

一种由来评判机器学习模型输出质量的过程;例如,让双语者评判机器学习翻译模型的质量。对于没有唯一正确答案的模型,人工评估尤其有用。

自动评估自动评分器评估相对。

人机协同 (HITL)

#generativeAI

一种定义宽泛的成语,可能表示以下任一含义:

  • 以批判或怀疑的态度看待生成式 AI 输出的政策。 例如,撰写本机器学习词汇表的作者们对大语言模型的能力感到惊叹,但同时也注意到大语言模型会犯错。
  • 一种策略或系统,用于确保人们帮助塑造、评估和改进模型的行为。让人参与到 AI 流程中,可使 AI 同时受益于机器智能和人类智能。例如,在一种系统中,AI 生成代码,然后由软件工程师审核,这种系统就是人机循环系统。

超参数

#fundamentals

在连续多次训练模型期间,您或超参数调节服务(例如 Vizier)调整的变量。例如,学习速率就是一种超参数。您可以在一次训练会话之前将学习率设置为 0.01。如果您认为 0.01 过高,则可以在下一次训练会话中将学习率设置为 0.003。

相比之下,形参是模型在训练期间学习的各种权重偏差

如需了解详情,请参阅机器学习速成课程中的线性回归:超参数

超平面

将空间划分为两个子空间的边界。例如,直线是二维空间中的超平面,平面是三维空间中的超平面。在机器学习中,超平面通常是分隔高维空间的边界。核支持向量机利用超平面将正类别和负类别区分开来(通常是在极高维度空间中)。

I

i.i.d.

独立同分布的缩写。

图像识别

#image

对图像中的物体、图案或概念进行分类的过程。 图像识别也称为图像分类

如需了解详情,请参阅机器学习实践课程:图像分类

如需了解详情,请参阅机器学习实践课程:图像分类

不平衡的数据集

分类不平衡的数据集的含义相同。

隐性偏差

#responsible

根据一个人的心智模式和记忆自动建立关联或做出假设。隐性偏差会影响以下方面:

  • 数据的收集和分类方式。
  • 机器学习系统的设计和开发方式。

例如,在构建用于识别婚礼照片的分类模型时,工程师可能会将照片中的白色裙子用作一个特征。不过,白色裙子只在某些时代和某些文化中是一种婚礼习俗。

另请参阅确认偏差

插补

值插补的简写形式。

公平性指标互不相容

#responsible
#Metric

某些公平性概念互不相容,无法同时满足。因此,没有一种通用的指标可用于量化公平性,并适用于所有机器学习问题。

虽然这可能令人沮丧,但公平性指标互不相容并不意味着公平性方面的努力是徒劳的。相反,它表明必须根据特定机器学习问题的具体情况来定义公平性,目的是防止其用例特有的危害。

如需更详细地了解公平性指标的不兼容性,请参阅“公平性(不)可能性的探讨”

上下文学习

#language
#generativeAI

少样本提示的含义相同。

独立同分布 (i.i.d)

#fundamentals

从不发生变化的分布中抽取的数据,其中抽取的每个值都不依赖于之前抽取的值。i.i.d. 是机器学习的理想情况 - 一种实用的数学结构,但在现实世界中几乎从未发现过。例如,某个网页的访问者在短时间内的分布可能为 i.i.d.,即分布在该短时间内没有变化,且一位用户的访问行为通常与另一位用户的访问行为无关。不过,如果您扩大时间范围,网页访问者的季节性差异可能会显现出来。

另请参阅非平稳性

个体公平性

#responsible
#Metric

一种公平性指标,用于检查相似的个体是否被归为同一类别。例如,Brobdingnagian Academy 可能希望通过确保成绩和标准化考试分数完全相同的两名学生获得入学的可能性相同,来满足个人公平性。

请注意,个体公平性完全取决于您如何定义“相似性”(在本例中为成绩和考试分数),如果相似性指标遗漏了重要信息(例如学生课程的严格程度),您可能会引入新的公平性问题。

如需详细了解个体公平性,请参阅“通过感知实现公平”

推理

#fundamentals
#generativeAI

在传统机器学习中,推断是指以下过程:通过将训练过的模型应用于无标签样本做出预测。如需了解详情,请参阅“机器学习简介”课程中的监督式学习

大语言模型中,推理是指使用训练好的模型生成输出的过程,例如针对输入提示的文本回答。

推理在统计学中具有略有不同的含义。如需了解详情,请参阅 维基百科中有关统计学推断的文章

推理路径

#df

决策树中,在推理过程中,特定示例到其他条件所采用的路线,最终以结束。例如,在以下决策树中,较粗的箭头显示了具有以下特征值的示例的推理路径:

  • x = 7
  • y = 12
  • z = -3

下图中的推理路径在到达叶节点 (Zeta) 之前会经历三种条件。

包含 4 个条件和 5 个叶的决策树。
          根条件为 (x > 0)。由于答案为“是”,推理路径会从根节点前往下一个条件 (y > 0)。
          由于答案为“是”,推理路径会前往下一个条件 (z > 0)。由于答案为“否”,推理路径会到达其终端节点(即叶节点 Zeta)。

三条粗箭头显示了推理路径。

如需了解详情,请参阅决策森林课程中的决策树

信息增益

#df
#Metric

决策森林中,节点与其子节点熵的加权(按示例数量)和之间的差。节点的熵是指该节点中示例的熵。

例如,请考虑以下熵值:

  • 父节点的熵 = 0.6
  • 一个子节点的熵(包含 16 个相关示例)= 0.2
  • 另一个子节点的熵(有 24 个相关示例)= 0.1

因此,40% 的示例位于一个子节点中,而 60% 的示例位于另一个子节点中。因此:

  • 子节点的加权熵之和 = (0.4 * 0.2) + (0.6 * 0.1) = 0.14

因此,信息增益为:

  • 信息增益 = 父节点的熵 - 子节点的加权熵之和
  • 信息增益 = 0.6 - 0.14 = 0.46

大多数分裂器都旨在创建可最大限度提高信息增益的条件

群内偏差

#responsible

对自身所属的群组或自身特征表现出偏向。 如果测试人员或评分者由机器学习开发者的好友、家人或同事组成,那么群内偏差可能会导致产品测试或数据集无效。

群内偏差是一种群体归因偏差。另请参阅群外同质性偏差

如需了解详情,请参阅机器学习速成课程中的公平性:偏差类型

输入生成器

一种将数据加载到神经网络中的机制。

输入生成器可以看作是一个组件,负责将原始数据处理为张量,然后对这些张量进行迭代,以生成用于训练、评估和推理的批次。

输入层

#fundamentals

用于保存特征向量神经网络。也就是说,输入层为训练推理提供示例。例如,以下神经网络中的输入层包含两个特征:

四个层:一个输入层、两个隐藏层和一个输出层。

在集合条件中

#df

决策树中,一种用于测试一组项中是否存在某个项的条件。 例如,以下是一个集合内条件:

  house-style in [tudor, colonial, cape]

在推理期间,如果房屋风格 特征的值为 tudorcolonialcape,则此条件的评估结果为“是”。如果住宅风格特征的值为其他值(例如 ranch),则此条件的计算结果为“否”。

与测试独热编码特征的条件相比,集合内条件通常会生成更高效的决策树。

实例

示例的含义相同。

指令调优

#generativeAI

一种微调形式,可提高生成式 AI 模型遵循指令的能力。指令调优是指使用一系列指令提示训练模型,这些指令提示通常涵盖各种各样的任务。经过指令调优的模型随后往往能够针对各种任务的零样本提示生成有用的回答。

比较和对比:

可解释性

#fundamentals

能够以人类可理解的方式解释或呈现机器学习模型的推理过程。

例如,大多数线性回归模型都具有很高的可解释性。(您只需查看每个特征的训练权重。)决策森林的可解释性也很高。不过,某些模型仍需进行复杂的可视化处理,才能变得可解释。

您可以使用 Learning Interpretability Tool (LIT) 来解读机器学习模型。

评分者间一致性信度

#Metric

衡量人工标注者在执行任务时达成一致的频率。 如果评分者意见不一致,可能需要改进任务说明。 有时也称为注释者间一致性信度评分者间可靠性信度。另请参阅 Cohen's kappa(最热门的评分者间一致性信度衡量指标之一)。

如需了解详情,请参阅机器学习速成课程中的类别数据:常见问题

交并比 (IoU)

#image

两个集合的交集除以它们的并集。在机器学习图像检测任务中,IoU 用于衡量模型预测的边界框相对于标准答案边界框的准确度。在这种情况下,两个框的 IoU 是重叠面积与总面积的比值,其值范围为 0(预测的边界框与标准答案边界框不重叠)到 1(预测的边界框与标准答案边界框的坐标完全相同)。

例如,在下图中:

  • 预测的边界框(用于界定模型预测的画作中床头柜所在位置的坐标)以紫色轮廓显示。
  • 标准答案边界框(用于界定画作中床头柜实际所在位置的坐标)以绿色轮廓显示。

梵高画作《阿尔勒的卧室》,床边夜间桌子周围有两个不同的边界框。标准答案边界框(绿色)完美地圈定了床头柜。预测的边界框(紫色)位于实际边界框下方和右侧 50% 的位置;它包含床头柜的右下四分之一,但遗漏了床头柜的其余部分。

在此示例中,预测和标准答案的边界框的交集(左下图)为 1,预测和标准答案的边界框的并集(右下图)为 7,因此 IoU 为 \(\frac{1}{7}\)。

与上图相同,但每个边界框都划分为四个象限。总共有 7 个象限,因为标准答案边界框的右下象限和预测的边界框的左上象限相互重叠。此重叠部分(以绿色突出显示)表示交集,面积为 1。 与上图相同,但每个边界框都划分为四个象限。总共有 7 个象限,因为标准答案边界框的右下象限和预测的边界框的左上象限相互重叠。
          两个边界框围合的整个内部区域(以绿色突出显示)表示并集,面积为 7。

IoU

交并比的缩写。

商品矩阵

#recsystems

推荐系统中,由矩阵分解生成的嵌入向量矩阵,其中包含有关每个商品的潜在信号。项矩阵的每一行都包含所有项的单个潜在特征的值。 以电影推荐系统为例。项矩阵中的每一列表示一部电影。潜在信号可能表示类型,也可能是更难以解读的信号,其中涉及类型、明星、影片年代或其他因素之间的复杂互动关系。

项矩阵与要进行分解的目标矩阵具有相同的列数。例如,假设某个影片推荐系统要评估 10000 部影片,则项矩阵会有 10000 个列。

项目

#recsystems

推荐系统中,系统推荐的实体。例如,视频是音像店推荐的推荐项,而书籍是书店推荐的推荐项。

迭代

#fundamentals

训练期间,对模型的参数(即模型的权重偏差)进行一次更新。批次大小决定了模型在一次迭代中处理的样本数量。例如,如果批次大小为 20,则模型会在调整参数之前处理 20 个样本。

在训练神经网络时,单次迭代涉及以下两个传递:

  1. 一次前向传递,用于评估单个批次的损失。
  2. 一次反向传递(反向传播),用于根据损失和学习速率调整模型参数。

如需了解详情,请参阅机器学习速成课程中的梯度下降法

J

JAX

一个数组计算库,将 XLA(加速线性代数)和自动微分功能结合在一起,实现高性能的数值计算。JAX 提供了一个简单而强大的 API,用于编写具有可组合转换的加速数值代码。JAX 提供以下功能:

  • grad(自动微分)
  • jit(即时编译)
  • vmap(自动矢量化或批处理)
  • pmap(并行化)

JAX 是一种用于表达和组合数值代码转换的语言,类似于 Python 的 NumPy 库,但范围要大得多。(事实上,JAX 下的 .numpy 库是 Python NumPy 库的等效功能版本,但已完全重写。)

JAX 通过将模型和数据转换为适合在 GPU 和 TPU 加速器芯片上并行处理的形式,特别适合加速许多机器学习任务。

FlaxOptaxPax 和许多其他库都基于 JAX 基础架构构建。

K

Keras

一种热门的 Python 机器学习 API。Keras 能够在多种深度学习框架上运行,其中包括 TensorFlow(在该框架上,Keras 作为 tf.keras 提供)。

核支持向量机 (KSVM)

一种分类算法,旨在通过将输入数据向量映射到更高维度的空间,最大限度地扩大类别和负类别之间的边际。以某个输入数据集包含一百个特征的分类问题为例。为了最大化正类别和负类别之间的裕度,核支持向量机可以在内部将这些特征映射到百万维度的空间。核支持向量机使用合页损失函数

关键点

#image

图片中特定特征的坐标。例如,对于区分花卉种类的图像识别模型,关键点可能是每个花瓣的中心、花茎、雄蕊等。

k 折叠交叉验证

一种用于预测模型泛化到新数据的能力的算法。k 折交叉验证中的 k 是指您将数据集的示例划分成的相等组数;也就是说,您将训练和测试模型 k 次。在每轮训练和测试中,一个不同的组是测试集,所有剩余的组都成为训练集。经过 k 轮训练和测试后,计算所选测试指标的平均值和标准差。

例如,假设您的数据集包含 120 个示例。进一步假设,您决定将 k 设置为 4。因此,在对示例进行随机混排后,您将数据集划分为四个包含 30 个示例的相等组,并进行四轮训练和测试:

一个数据集,被分成四个大小相等的示例组。在第 1 轮中,前三个组用于训练,最后一个组用于测试。在第 2 轮中,前两个组和最后一个组用于训练,而第三个组用于测试。在第 3 轮中,第一个组和最后两个组用于训练,而第二个组用于测试。
          在第 4 轮中,第一组用于测试,而最后三组用于训练。

例如,均方误差 (MSE) 可能是线性回归模型中最有意义的指标。因此,您需要计算所有四轮的 MSE 的平均值和标准差。

k-means

#clustering

一种热门的聚类算法,用于对非监督式学习中的样本进行分组。k-means 算法基本上会执行以下操作:

  • 以迭代方式确定最佳的 k 中心点(称为形心)。
  • 将每个样本分配到最近的形心。与同一个形心距离最近的样本属于同一个组。

k-means 算法会挑选形心位置,以最大限度地减小每个样本与其最接近形心之间的距离的累积平方。

例如,请看以下狗身高与狗宽度的散点图:

一个包含数十个数据点的直角坐标曲线图。

如果 k=3,k-means 算法将确定三个形心。每个样本都会分配到离它最近的形心,从而产生三个组:

与上图相同的笛卡尔图,但添加了三个质心。
          之前的数据点聚类为三个不同的组,每个组代表最接近特定形心的数据点。

假设某制造商想要确定适合小型犬、中型犬和大型犬的毛衣的理想尺寸。这三个形心分别表示相应聚类中每只狗的平均身高和平均宽度。因此,制造商可能应根据这三个形心来确定毛衣尺码。请注意,聚类的质心通常不是聚类中的示例。

上图展示了仅包含两个特征(身高和体重)的示例的 k-means。请注意,K-means 可以跨多个特征对示例进行分组。

如需了解详情,请参阅聚类课程中的什么是 K-means 聚类?

k-median

#clustering

k-means 紧密相关的聚类算法。两者的实际区别如下:

  • 对于 k-means,确定形心的方法是,最大限度地减小候选形心与它的每个样本之间的距离平方和。
  • 对于 k-median,确定形心的方法是,最大限度地减小候选形心与它的每个样本之间的距离总和。

请注意,距离的定义也有所不同:

  • k-means 采用从形心到样本的欧几里得距离。(在二维空间中,欧几里得距离即使用勾股定理计算斜边。)例如,(2,2) 与 (5,-2) 之间的 k-means 距离为:
$$ {\text{Euclidean distance}} = {\sqrt {(2-5)^2 + (2--2)^2}} = 5 $$
  • k-median 采用从形心到样本的 曼哈顿距离。这个距离是每个维度中绝对差值的总和。例如,(2,2) 与 (5,-2) 之间的 k-median 距离为:
$$ {\text{Manhattan distance}} = \lvert 2-5 \rvert + \lvert 2--2 \rvert = 7 $$

L

L0 正则化

#fundamentals

一种正则化,用于惩罚模型中非零权重总数。例如,具有 11 个非零权重的模型受到的惩罚会高于具有 10 个非零权重的类似模型。

L0 正则化有时称为 L0 范数正则化

L1 损失

#fundamentals
#Metric

一种损失函数,用于计算实际标签值与模型预测的值之间的差的绝对值。例如,以下是针对包含 5 个示例批次计算 L1 损失的示例:

示例的实际值 模型的预测值 增量的绝对值
7 6 1
5 4 1 个
8 11 3
4 6 2
9 8 1
  8 = L1 损失

L1 损失对离群值的敏感性弱于 L2 损失

平均绝对误差是指每个样本的平均 L1 损失。

如需了解详情,请参阅机器学习速成课程中的线性回归:损失

L1 正则化

#fundamentals

一种正则化,根据权重的绝对值总和按比例惩罚权重。L1 正则化有助于使不相关或几乎不相关的特征的权重正好为 0。权重为 0 的特征实际上已从模型中移除。

L2 正则化相对。

L2 损失

#fundamentals
#Metric

一种损失函数,用于计算实际标签值与模型预测的值之间的平方差。例如,以下是针对包含 5 个示例批次计算 L2 损失的示例:

示例的实际值 模型的预测值 差值的平方
7 6 1
5 4 1 个
8 11 9
4 6 4
9 8 1
  16 = L2 损失

由于取平方值,因此 L2 损失会放大离群值的影响。也就是说,与 L1 损失相比,L2 损失对不良预测的反应更强烈。例如,前一个批次的 L1 损失将为 8 而不是 16。请注意,一个异常值就占了 16 个值中的 9 个。

回归模型通常使用 L2 损失作为损失函数。

均方误差是指每个样本的平均 L2 损失。 平方损失是 L2 损失的另一种说法。

如需了解详情,请参阅机器学习速成课程中的逻辑回归:损失和正规化

L2 正则化

#fundamentals

一种正则化,根据权重平方和按比例惩罚权重。L2 正则化有助于使离群值(具有较大正值或较小负值)权重接近 0,但又不正好为 0。值非常接近 0 的特征会保留在模型中,但对模型的预测影响不大。

L2 正则化始终可以提高线性模型的泛化能力。

L1 正则化相对。

如需了解详情,请参阅机器学习速成课程中的过拟合:L2 正则化

标签

#fundamentals

监督式机器学习中,标签指样本的“答案”或“结果”部分。

每个有标签样本都包含一个或多个特征和一个标签。例如,在垃圾邮件检测数据集中,标签可能是“垃圾邮件”或“非垃圾邮件”。在降雨量数据集中,标签可能是特定时间段内的降雨量。

如需了解详情,请参阅《机器学习简介》中的监督式学习

有标签示例

#fundamentals

包含一个或多个特征和一个标签的示例。例如,下表显示了房屋估值模型中的三个带标签的示例,每个示例都包含三个特征和一个标签:

卧室数量 浴室数量 房屋年龄 房价(标签)
3 2 15 $345,000
2 1 72 17.9 万美元
4 2 34 39.2 万美元

监督式机器学习中,模型基于带标签的样本进行训练,并基于无标签的样本进行预测。

将有标签样本与无标签样本进行对比。

如需了解详情,请参阅《机器学习简介》中的监督式学习

标签泄露

一种模型设计缺陷,其中特征标签的代理。例如,假设有一个二元分类模型,用于预测潜在客户是否会购买特定产品。假设模型的某个特征是一个名为 SpokeToCustomerAgent 的布尔值。进一步假设,只有在潜在客户实际购买产品后,才会为其分配客户服务人员。在训练期间,模型将快速学习 SpokeToCustomerAgent 与标签之间的关联。

如需了解详情,请参阅机器学习速成课程中的监控流水线

lambda

#fundamentals

正则化率的含义相同。

Lambda 是一个过载的术语。我们在此关注的是该术语在正则化中的定义。

LaMDA(对话应用语言模型)

#language

由 Google 开发的基于 Transformer大型语言模型,经过大量对话数据集训练,可生成逼真的对话回答。

LaMDA:我们富有突破性的对话技术提供概览。

landmarks

#image

关键点的含义相同。

语言模型

#language

一种用于估计较长的 token 序列中出现某个 token 或 token 序列的概率的模型

如需了解详情,请参阅机器学习速成课程中的什么是语言模型?

大语言模型

#language

至少是一个具有极高数量参数语言模型。更通俗地说,任何基于 Transformer 的语言模型,例如 GeminiGPT

如需了解详情,请参阅机器学习速成课程中的大语言模型 (LLM)

latency

#generativeAI

模型处理输入并生成回答所需的时间。 延迟响应的生成时间比延迟响应的生成时间长。

影响大语言模型延迟时间的因素包括:

  • 输入和输出 [token] 长度
  • 模型的复杂程度
  • 模型运行的基础设施

优化延迟时间对于打造响应迅速且用户友好的应用至关重要。

潜在空间

#language

嵌入空间的含义相同。

图层

#fundamentals

神经网络中的一组神经元。以下是三种常见的层类型:

例如,下图展示了一个包含一个输入层、两个隐藏层和一个输出层的神经网络:

具有一个输入层、两个隐藏层和一个输出层的神经网络。输入层包含两个特征。第一个隐藏层包含 3 个神经元,第二个隐藏层包含 2 个神经元。输出层由单个节点组成。

TensorFlow 中,也是 Python 函数,以张量和配置选项作为输入,然后生成其他张量作为输出。

Layers API (tf.layers)

#TensorFlow

一种 TensorFlow API,用于以层组合的方式构建深度神经网络。通过 Layers API,您可以构建不同类型的,例如:

  • tf.layers.Dense 用于全连接层
  • tf.layers.Conv2D,表示卷积层。

Layers API 遵循 Keras Layers API 规范。 也就是说,除了前缀不同之外,Layers API 中的所有函数都具有与 Keras 层 API 中对应的函数相同的名称和签名。

leaf

#df

决策树中的任何端点。与条件不同,叶节点不执行测试。相反,叶节点是一种可能的预测。叶也是推理路径的终端节点

例如,以下决策树包含三个叶节点:

一个包含两个条件并产生三个叶节点的决策树。

如需了解详情,请参阅决策森林课程中的决策树

Learning Interpretability Tool (LIT)

一种直观的交互式模型理解和数据可视化工具。

您可以使用开源 LIT解读模型,或直观呈现文本、图片和表格数据。

学习速率

#fundamentals

一个浮点数,用于告知梯度下降算法在每次迭代时调整权重和偏差的幅度。例如,0.3 的学习速率调整权重和偏差的力度是 0.1 的学习速率的三倍。

学习速率是一个重要的超参数。如果您将学习速率设置得过低,训练将耗时过长。如果您将学习速率设置得过高,梯度下降法通常难以实现收敛

如需了解详情,请参阅机器学习速成课程中的线性回归:超参数

最小二乘回归

一种通过最小化 L2 损失训练出的线性回归模型。

Levenshtein 距离

#language
#metric

一种编辑距离指标,用于计算将一个字词更改为另一个字词所需的最少删除、插入和替换操作次数。例如,“heart”和“darts”这两个字之间的 Levenshtein 距离为 3,因为以下 3 次编辑是将一个字转换为另一个字所需的最少更改次数:

  1. heart → deart(将“h”替换为“d”)
  2. deart → dart(删除“e”)
  3. dart → darts(插入“s”)

请注意,上述序列并非唯一包含 3 次编辑的路径。

线性

#fundamentals

一种仅通过加法和乘法即可表示的两个或多个变量之间的关系。

线性关系的图是一条直线。

非线性相对。

线性模型

#fundamentals

一种为每个特征分配一个权重以进行预测模型。(线性模型还包含偏差。)相比之下,深度模型中特征与预测的关系通常是非线性的。

与深度模型相比,线性模型通常更易于训练,且可解释性更强。不过,深度模型可以学习特征之间的复杂关系。

线性回归逻辑回归是两种类型的线性模型。

线性回归

#fundamentals

一种机器学习模型,同时满足以下两个条件:

  • 该模型是一个线性模型
  • 预测值是一个浮点值。(这是线性回归中的回归部分。)

将线性回归与逻辑回归进行对比。 此外,还要将回归与分类进行对比。

如需了解详情,请参阅机器学习速成课程中的线性回归

LIT

Learning Interpretability Tool (LIT) 的缩写,之前称为 Language Interpretability Tool。

LLM

#language
#generativeAI

大语言模型的缩写。

LLM 评估

#language
#generativeAI
#Metric

用于评估大语言模型 (LLM) 性能的一组指标和基准。概括来讲,大语言模型评估:

  • 帮助研究人员确定 LLM 需要改进的方面。
  • 有助于比较不同的 LLM,并确定最适合特定任务的 LLM。
  • 帮助确保 LLM 的使用安全且符合伦理道德。

如需了解详情,请参阅机器学习速成课程中的大型语言模型 (LLM)

逻辑回归

#fundamentals

一种可预测概率的回归模型。逻辑回归模型具有以下特征:

  • 标签为分类。逻辑回归一词通常是指二元逻辑回归,即计算具有两个可能值的标签的概率的模型。一种不太常见的变体是多项式逻辑回归,它会计算具有两个以上可能值的标签的概率。
  • 训练期间的损失函数为对数损失函数。(对于具有两个以上可能值的标签,可以并行放置多个 Log Loss 单位。)
  • 该模型采用的是线性架构,而不是深度神经网络。不过,此定义的其余部分也适用于预测类别标签概率的深度模型

例如,假设有一个逻辑回归模型,用于计算输入电子邮件是垃圾邮件或非垃圾邮件的概率。在推理过程中,假设模型预测值为 0.72。因此,模型会估计:

  • 电子邮件有 72% 的可能性是垃圾邮件。
  • 电子邮件不是垃圾邮件的概率为 28%。

逻辑回归模型采用以下两步架构:

  1. 模型通过应用输入特征的线性函数来生成原始预测 (y')。
  2. 该模型使用原始预测结果作为 sigmoid 函数的输入,该函数会将原始预测结果转换为介于 0 和 1 之间的值(不包括 0 和 1)。

与任何回归模型一样,逻辑回归模型也会预测一个数值。 不过,此数字通常会成为二元分类模型的一部分,如下所示:

  • 如果预测的数值大于分类阈值,则二元分类模型会预测为正类别。
  • 如果预测的数字小于分类阈值,则二元分类模型会预测负类别。

如需了解详情,请参阅机器学习速成课程中的逻辑回归

logits

分类模型生成的原始(未归一化)预测结果的向量,通常随后会传递给归一化函数。如果模型要解决的是多类别分类问题,那么 logits 通常会成为 softmax 函数的输入。 然后,softmax 函数会生成一个(归一化)概率向量,其中每个可能类别对应一个值。

对数损失

#fundamentals

二元逻辑回归中使用的损失函数

如需了解详情,请参阅机器学习速成课程中的逻辑回归:损失和正规化

对数几率

#fundamentals

某个事件的对数几率。

长短期记忆 (LSTM)

#seq

循环神经网络中的一种细胞,用于在手写识别、机器翻译和图片说明等应用中处理数据序列。LSTM 通过在内部记忆状态中基于来自 RNN 中先前单元的新输入和上下文来维护历史记录,从而解决训练 RNN 时因数据序列过长而出现的梯度消失问题

LoRA

#language
#generativeAI

低秩自适应性的缩写。

#fundamentals
#Metric

训练监督式模型期间,用于衡量模型的预测与其标签之间的差距。

损失函数用于计算损失。

如需了解详情,请参阅机器学习速成课程中的线性回归:损失

损失汇总器

一种机器学习算法,通过合并多个模型的预测结果并使用这些预测结果进行单个预测,来提高模型性能。因此,损失聚合器可以减少预测的方差,并提高预测的准确度

损失曲线

#fundamentals

以训练迭代次数为自变量的损失函数图。下图显示了典型的损失曲线:

一个损失与训练迭代次数的笛卡尔图,显示了初始迭代的损失快速下降,随后是逐渐下降,最后在最终迭代期间斜率平缓。

损失曲线可帮助您确定模型何时收敛过拟合

损失曲线可以绘制以下所有类型的损失:

另请参阅泛化曲线

如需了解详情,请参阅机器学习速成课程中的过拟合:解读损失曲线

损失函数

#fundamentals
#Metric

训练或测试期间,用于计算一批示例的损失的数学函数。对于做出良好预测的模型,损失函数会返回较低的损失;对于做出不良预测的模型,损失函数会返回较高的损失。

训练的目标通常是尽量减少损失函数返回的损失。

损失函数有很多不同的种类。为所构建的模型选择合适的损失函数。例如:

损失曲面

权重与损失的图表。梯度下降法旨在找到损失曲面在局部最低点时的权重。

低秩自适应 (LoRA)

#language
#generativeAI

一种参数高效微调技术,可“冻结”模型的预训练权重(使其无法再被修改),然后在模型中插入一小部分可训练的权重。这组可训练的权重(也称为“更新矩阵”)比基础模型小得多,因此训练速度也快得多。

LoRA 具有以下优势:

  • 提高模型在应用微调的网域中的预测质量。
  • 与需要对模型的所有形参进行微调的技术相比,微调速度更快。
  • 通过支持同时部署共享同一基础模型的多个专业模型,降低推理的计算成本。

LSTM

#seq

长短期记忆的缩写。

M

机器学习

#fundamentals

一种通过输入数据训练模型的程序或系统。经过训练的模型可以根据从与训练该模型时使用的数据集具有相同分布的新(从未见过)数据集中提取的数据做出有用的预测。

机器学习还指与这些程序或系统相关的研究领域。

如需了解详情,请参阅机器学习简介课程。

机器翻译

#generativeAI

使用软件(通常是机器学习模型)将文本从一种人类语言转换为另一种人类语言,例如从英语转换为日语。

多数类

#fundamentals

分类不平衡的数据集内更为常见的标签。例如,假设一个数据集内包含 99% 的负标签和 1% 的正标签,那么负标签为多数类。

少数类相对。

如需了解详情,请参阅机器学习速成课程中的数据集:不平衡的数据集

马尔可夫决策过程 (MDP)

#rl

一种表示决策模型的图,其中在假设 Markov 属性成立的情况下,通过采取决策(或行动)来浏览一系列状态。在强化学习中,这些状态之间的转换会返回一个数值奖励

马尔可夫性质

#rl

某些环境的属性,其中状态转换完全由当前状态和代理的动作中隐含的信息决定。

掩码语言模型

#language

一种语言模型,用于预测候选令牌填补序列中空白的概率。例如,遮盖语言模型可以计算候选字词的概率,以替换以下句子中的下划线:

帽子里的____回来了。

文献通常使用字符串“MASK”而不是下划线。 例如:

帽子上的“MASK”又回来了。

大多数现代掩码语言模型都是双向的。

matplotlib

一个开源 Python 2D 绘制库。 matplotlib 可以帮助您可视化机器学习的各个不同方面。

矩阵分解

#recsystems

在数学中,矩阵分解是一种寻找其点积近似目标矩阵的矩阵的机制。

推荐系统中,目标矩阵通常包含用户对商品的评分。例如,电影推荐系统的目标矩阵可能如下所示,其中正整数表示用户评分,0 表示用户未对该电影进行评分:

  卡萨布兰卡 《旧欢新宠:费城故事》 Black Panther 神奇女侠 《低俗小说》
用户 1 5.0 3.0 0.0 2.0 0.0
用户 2 4.0 0.0 0.0 1.0 5.0
用户 3 3.0 1.0 4.0 5.0 0.0

电影推荐系统旨在预测无评分电影的用户评分。例如,用户 1 会喜欢《黑豹》吗?

推荐系统采用的一种方法是,使用矩阵分解生成以下两个矩阵:

  • 用户矩阵,形状为用户数量 X 嵌入维度数量。
  • 项矩阵,形状为嵌入维度数量 X 项数量。

例如,对我们的三名用户和五个推荐项进行矩阵分解,会得到以下用户矩阵和项矩阵:

User Matrix                 Item Matrix

1.1   2.3           0.9   0.2   1.4    2.0   1.2
0.6   2.0           1.7   1.2   1.2   -0.1   2.1
2.5   0.5

用户矩阵和项矩阵的点积会得到一个推荐矩阵,其中不仅包含原始用户评分,还包含对每位用户未观看影片的预测。 例如,假设用户 1 对《卡萨布兰卡》的评分为 5.0。对应于推荐矩阵中该单元格的点积应该在 5.0 左右,计算方式如下:

(1.1 * 0.9) + (2.3 * 1.7) = 4.9

更重要的是,用户 1 会喜欢《黑豹》吗?计算第一行和第三列所对应的点积,得到的预测评分为 4.3:

(1.1 * 1.4) + (2.3 * 1.2) = 4.3

矩阵分解通常会生成用户矩阵和项矩阵,这两个矩阵合在一起明显比目标矩阵更为紧凑。

平均绝对误差 (MAE)

#Metric

使用 L1 损失时,每个样本的平均损失。按如下方式计算平均绝对误差:

  1. 计算批次的 L1 损失。
  2. 将 L1 损失除以批次中的样本数。

例如,假设有以下一批包含 5 个示例的数据,请考虑计算 L1 损失:

示例的实际值 模型的预测值 损失(实际值与预测值之间的差值)
7 6 1
5 4 1 个
8 11 3
4 6 2
9 8 1
  8 = L1 损失

因此,L1 损失为 8,示例数量为 5。因此,平均绝对误差为:

Mean Absolute Error = L1 loss / Number of Examples
Mean Absolute Error = 8/5 = 1.6

将平均绝对误差与均方误差均方根误差进行对比。

前 k 名的平均精确率均值 (mAP@k)

#language
#generativeAI
#Metric

验证数据集中所有“平均精确率(k)”得分的统计平均值。平均精确率(取前 k 个结果)的一个用途是判断推荐系统生成的推荐的质量。

虽然“平均平均值”一词听起来有些冗余,但作为指标名称是合适的。毕竟,此指标会计算多个 k 值处的平均精确率的平均值。

均方误差 (MSE)

#Metric

使用 L2 损失时,每个样本的平均损失。按以下方式计算均方误差:

  1. 计算批次的 L2 损失。
  2. 将 L2 损失除以批次中的样本数。

例如,假设有一批包含 5 个示例,其损失如下:

实际值 模型预测 损失 平方损失
7 6 1 1
5 4 1 1
8 11 3 9
4 6 2 4
9 8 1 1
16 = L2 损失

因此,均方误差为:

Mean Squared Error = L2 loss / Number of Examples
Mean Squared Error = 16/5 = 3.2

均方误差是一种常用的训练优化器,尤其适用于线性回归

将均方误差与平均绝对误差均方根误差进行对比。

TensorFlow Playground 使用均方误差来计算损失值。

网格

#TensorFlow
#GoogleCloud

在机器学习并行编程中,一个与将数据和模型分配给 TPU 芯片以及定义这些值将如何分片或复制相关的术语。

网格是一个多含义术语,可以理解为下列两种含义之一:

  • TPU 芯片的物理布局。
  • 一种用于将数据和模型映射到 TPU 芯片的抽象逻辑构造。

无论哪种情况,网格都被指定为形状

元学习

#language

一种发现或改进学习算法的机器学习子集。 元学习系统还可以旨在训练模型,使其能够从少量数据或从之前任务中获得的经验中快速学习新任务。元学习算法通常会尝试实现以下目标:

  • 改进或学习人工设计的特征(例如初始化程序或优化器)。
  • 提高数据效率和计算效率。
  • 改善泛化效果。

元学习与少量样本学习有关。

指标

#TensorFlow
#Metric

您关心的一项统计数据。

目标是机器学习系统尝试优化的指标。

Metrics API (tf.metrics)

#Metric

用于评估模型的 TensorFlow API。例如,tf.metrics.accuracy 用于确定模型的预测与标签的匹配频率。

小批次

#fundamentals

在一次迭代中处理的批次的一小部分随机选择的子集。 小批次的批次大小通常介于 10 到 1,000 个样本之间。

例如,假设整个训练集(完整批次)包含 1,000 个样本。进一步假设您将每个小批次的批次大小设置为 20。因此,每次迭代都会确定 1,000 个示例中随机 20 个示例的损失,然后相应地调整权重偏差

计算小批次的损失比计算完整批次中所有示例的损失要高效得多。

如需了解详情,请参阅机器学习速成课程中的线性回归:超参数

小批次随机梯度下降法

一种使用小批次梯度下降算法。也就是说,小批次随机梯度下降法会根据一小部分训练数据估算梯度。常规随机梯度下降法使用的小批次的大小为 1。

minimax 损失

#Metric

一种基于生成数据与真实数据分布之间的交叉熵生成对抗网络的损失函数。

第一篇论文中使用了 minimax 损失来描述生成对抗网络。

如需了解详情,请参阅生成对抗网络课程中的损失函数

少数类

#fundamentals

分类不平衡的数据集内不常见的标签。例如,假设一个数据集内包含 99% 的负标签和 1% 的正标签,那么正标签为少数类。

多数类相对。

如需了解详情,请参阅机器学习速成课程中的数据集:不平衡的数据集

混合专家

#language
#generativeAI

一种通过仅使用一部分参数(称为“专家”)来处理给定输入 token示例来提高神经网络效率的方案。门控网络会将每个输入 token 或示例路由到合适的专家。

如需了解详情,请参阅以下任一论文:

机器学习

机器学习的缩写。

MMIT

#language
#image
#generativeAI

多模态指令调优的缩写。

MNIST

#image

由 LeCun、Cortes 和 Burges 编译的公用数据集,其中包含 60,000 张图像,每张图像显示人类如何手动写下从 0 到 9 的特定数字。每张图像存储为 28x28 的整数数组,其中每个整数是 0 到 255(含边界值)之间的灰度值。

MNIST 是机器学习的标准数据集,通常用于测试新的机器学习方法。如需了解详情,请参阅 MNIST 手写数字数据库

modality

#language

高级别数据类别。例如,数字、文字、图片、视频和音频是五种不同的模态。

模型

#fundamentals

一般来说,任何处理输入数据并返回输出的数学结构。换句话说,模型是系统进行预测所需的一组参数和结构。在监督式机器学习中,模型将示例作为输入,并推理出预测结果作为输出。在监督式机器学习中,模型略有不同。例如:

  • 线性回归模型由一组权重和一个偏差组成。
  • 神经网络模型包含:
    • 一组隐藏层,每个隐藏层都包含一个或多个神经元
    • 与每个神经元相关联的权重和偏差。
  • 决策树模型包含:
    • 树的形状;即条件和叶的连接模式。
    • 条件和叶。

您可以保存、恢复或复制模型。

非监督式机器学习也会生成模型,通常是一个可以将输入示例映射到最合适的聚类的函数。

模型容量

#Metric

模型可以学习的问题的复杂性。模型可以学习的问题越复杂,模型的能力就越高。模型能力通常会随着模型参数数量的增加而增强。如需了解分类模型容量的正式定义,请参阅 VC 维度

模型级联

#generativeAI

一种可为特定推理查询选择理想模型的系统。

假设有一组模型,从非常大(大量形参)到小得多(形参少得多)。与较小的模型相比,超大型模型在推理时会消耗更多计算资源。不过,与较小的模型相比,非常大的模型通常可以推理出更复杂的请求。模型级联会确定推理查询的复杂程度,然后选择合适的模型来执行推理。 模型级联的主要目的是通过选择较小的模型来降低推理成本,只有在处理更复杂的查询时才选择较大的模型。

假设一个小型模型在手机上运行,而该模型的较大版本在远程服务器上运行。良好的模型级联可让较小的模型处理简单请求,仅在处理复杂请求时调用远程模型,从而降低费用和延迟时间

另请参阅模型路由器

模型并行处理

#language

一种扩展训练或推理的方式,将一个模型的不同部分放在不同的设备上。模型并行化可实现无法在单个设备上运行的大型模型。

为了实现模型并行性,系统通常会执行以下操作:

  1. 将模型分片(划分)为更小的部分。
  2. 将这些较小部分的训练分配到多个处理器中。每个处理器都会训练模型的一部分。
  3. 合并结果以创建单个模型。

模型并行会减慢训练速度。

另请参阅数据并行

模型路由器

#generativeAI

用于确定模型级联推理的理想模型的算法。模型路由器本身通常是一个机器学习模型,它会逐渐学习如何为给定的输入选择最佳模型。不过,模型路由器有时可能是一种更简单的非机器学习算法。

模型训练

确定最佳模型的过程。

MOE

#language
#image
#generativeAI

专家混合的缩写。

造势

一种复杂的梯度下降算法,其中学习步长不仅取决于当前步长的导数,还取决于紧邻的前一步长(或多个步长)的导数。动量涉及计算梯度随时间的指数加权移动平均值,类似于物理学中的动量。动量有时可以防止学习陷入局部最小值。

MT

#generativeAI

机器翻译的缩写。

多类别分类

#fundamentals

在监督式学习中,一种分类问题,其中数据集包含两个以上的标签类别。例如,Iris 数据集中的标签必须是以下三个类别之一:

  • setosa 鸢尾花
  • 弗吉尼亚鸢尾
  • 杂色鸢尾

如果模型使用 Iris 数据集进行训练,并预测新示例中的 Iris 类型,则该模型执行的是多类别分类。

相比之下,如果分类问题要区分的类别正好是两个,则属于二元分类模型。例如,预测电子邮件是垃圾邮件还是非垃圾邮件的电子邮件模型就是二元分类模型。

在聚类问题中,多类别分类是指两个以上的聚类。

如需了解详情,请参阅机器学习速成课程中的神经网络:多类别分类

多类别逻辑回归

多类别分类问题中使用逻辑回归

多头自注意力

#language

自注意力的一种扩展,可针对输入序列中的每个位置多次应用自注意力机制。

Transformer 引入了多头自注意力机制。

多模态指令调优

#language

一种经过指令调优的模型,可以处理文本以外的输入,例如图片、视频和音频。

多模态模型

#language

输入、输出或两者包含多种模态的模型。例如,假设有一个模型将图片和文本说明(两种模态)作为特征,并输出一个分数,用于指示文本说明与图片的匹配程度。因此,此模型的输入是多模态的,而输出是单模态的。

多项分类

多类别分类的含义相同。

多项回归

多类别逻辑回归的含义相同。

多任务处理

一种机器学习技术,其中训练单个模型来执行多项任务

多任务模型是通过训练适合每项不同任务的数据来创建的。这样一来,模型便可学习在不同任务之间共享信息,从而更有效地学习。

针对多项任务训练的模型通常具有更强的泛化能力,并且在处理不同类型的数据时更加稳健。

Nano

#generativeAI

一款相对较小的 Gemini 模型,专为在设备上使用而设计。如需了解详情,请参阅 Gemini Nano

另请参阅 ProUltra

NaN 陷阱

模型中的一个数字在训练期间变成 NaN,这会导致模型中的很多或所有其他数字最终也会变成 NaN。

NaN 是 Not a Number 的缩写。

自然语言处理

#language
一个领域,旨在教导计算机使用语言规则来处理用户说出或输入的内容。几乎所有现代自然语言处理都依赖于机器学习。

自然语言理解

#language

一种自然语言处理的子集,用于确定说出或输入的内容的意图。自然语言理解可以超越自然语言处理,考虑语言的复杂方面,例如上下文、讽刺和情感。

负类别

#fundamentals
#Metric

二元分类中,一种类别称为正类别,另一种类别称为负类别。正类别是模型正在测试的事物或事件,负类别则是另一种可能性。例如:

  • 在医学检查中,负类别可以是“非肿瘤”。
  • 在电子邮件分类模型中,负类别可以是“非垃圾邮件”。

正类别相对。

负采样

候选采样的含义相同。

神经架构搜索 (NAS)

一种用于自动设计神经网络架构的技术。NAS 算法可以减少训练神经网络所需的时间和资源。

NAS 通常使用:

  • 搜索空间,即一组可能的架构。
  • 适应度函数,用于衡量特定架构在给定任务上的表现。

NAS 算法通常从一小部分可能的架构开始,随着算法对有效架构的了解不断深入,逐渐扩大搜索空间。适应度函数通常基于架构在训练集上的表现,而算法通常使用强化学习技术进行训练。

事实证明,NAS 算法能够有效地为各种任务(包括图像分类、文本分类和机器翻译)找到高性能的架构。

输出表示

#fundamentals

包含至少一个隐藏层模型深度神经网络是一种包含多个隐藏层的神经网络。例如,下图显示了一个包含两个隐藏层的深度神经网络。

具有一个输入层、两个隐藏层和一个输出层的神经网络。

神经网络中的每个神经元都会连接到下一层中的所有节点。例如,在上图中,请注意第一个隐藏层中的每个神经元都分别连接到第二个隐藏层中的两个神经元。

在计算机上实现的神经网络有时称为人工神经网络,以区别于大脑和其他神经系统中的神经网络。

某些神经网络可以模拟不同特征与标签之间极其复杂的非线性关系。

另请参阅卷积神经网络循环神经网络

如需了解详情,请参阅机器学习速成课程中的神经网络

神经元

#fundamentals

在机器学习中,指神经网络隐藏层中的一个独特单元。每个神经元都会执行以下两步操作:

  1. 计算输入值与其对应权重的加权和
  2. 将加权和作为输入传递给激活函数

第一个隐藏层中的神经元接受来自输入层中特征值的输入。任何隐藏层(第一个隐藏层除外)中的神经元都会接受来自前一个隐藏层中神经元的输入。例如,第二个隐藏层中的神经元接受来自第一个隐藏层中神经元的输入。

下图突出显示了两个神经元及其输入。

具有一个输入层、两个隐藏层和一个输出层的神经网络。突出显示了两个神经元:一个位于第一个隐藏层,另一个位于第二个隐藏层。第一个隐藏层中突出显示的神经元会接收输入层中两个特征的输入。第二个隐藏层中突出显示的神经元会接收来自第一个隐藏层中三个神经元的输入。

神经网络中的神经元会模拟大脑和神经系统其他部位的神经元行为。

N-gram

#seq
#language

N 个字词的有序序列。例如,“truly madly”属于二元语法。由于顺序很重要,因此“madly truly”和“truly madly”是不同的二元语法。

此类 N 元语法的名称 示例
2 二元语法 to go、go to、eat lunch、eat dinner
3 三元语法 ate too much、happily ever after、the bell tolls
4 四元语法 walk in the park、dust in the wind、the boy ate lentils

很多自然语言理解模型依赖 N 元语法来预测用户将输入或说出的下一个字词。例如,假设用户输入了“happily ever”。 基于三元语法的 NLU 模型可能会预测该用户接下来将输入“after”一词。

N 元语法与词袋(无序字词集)相对。

如需了解详情,请参阅机器学习速成课程中的大型语言模型

NLP

#language

自然语言处理的缩写。

NLU

#language

自然语言理解的缩写。

节点(决策树)

#df

决策树中,任何条件

一个包含两个条件和三个叶的决策树。

如需了解详情,请参阅决策森林课程中的决策树

节点(神经网络)

#fundamentals

隐藏层中的神经元

如需了解详情,请参阅机器学习速成课程中的神经网络

节点(TensorFlow 图)

#TensorFlow

TensorFlow 中的操作。

噪声

一般来说,噪声是指数据集中掩盖信号的所有内容。将噪声引入数据中的方式各种各样。例如:

  • 人工评分者在添加标签时出错。
  • 人类和仪器错误记录或忽略特征值。

非二元性别条件

#df

包含两种以上可能结果的条件。例如,以下非二元条件包含三种可能的结果:

一种会导致三种可能结果的条件(number_of_legs = ?)。一种结果(number_of_legs = 8)会生成名为“spider”的叶。第二个结果(number_of_legs = 4)会生成一个名为“dog”的叶。第三种结果(number_of_legs = 2)会生成一个名为 penguin 的叶。

如需了解详情,请参阅决策森林课程中的条件类型

非线性

#fundamentals

一种无法仅通过加法和乘法表示的两个或多个变量之间的关系。线性关系可以用直线表示,而非线性关系则不能用直线表示。例如,假设有两个模型,每个模型都将单个特征与单个标签相关联。左侧的模型是线性模型,右侧的模型是非线性模型:

两个地块。一个图是直线,因此这是线性关系。
          另一个图是曲线,因此这是非线性关系。

如需尝试不同类型的非线性函数,请参阅机器学习速成课程中的神经网络:节点和隐藏层

无回答偏差

#responsible

请参阅选择性偏差

非平稳性

#fundamentals

一种值会随一个或多个维度(通常是时间)而变化的特征。 例如,请考虑以下非平稳性示例:

  • 特定商店的泳衣销量会随季节而变化。
  • 特定地区中特定水果的收获量在一年中的大部分时间为零,但在短时间内会很大。
  • 由于气候变化,年平均气温正在发生变化。

平稳性相对。

正确答案并非只有一个 (NORA)

#language
#generativeAI

有多个合适回答的提示。 例如,以下提示没有唯一正确的答案:

给我讲个关于大象的笑话。

评估没有正确答案的提示可能具有挑战性。

NORA

#language
#generativeAI

没有正确答案的缩写。

归一化

#fundamentals

从广义上讲,是将变量的实际值范围转换为标准值范围的过程,例如:

  • -1 至 +1
  • 0 至 1
  • Z 得分(大致介于 -3 到 +3 之间)

例如,假设某个特征的实际值范围为 800 到 2,400。作为特征工程的一部分,您可以将实际值归一化到标准范围内,例如 -1 到 +1。

归一化是特征工程中的一项常见任务。当特征向量中的每个数值特征都具有大致相同的范围时,模型通常会更快地进行训练(并生成更好的预测结果)。

另请参阅 Z 得分归一化

如需了解详情,请参阅机器学习速成课程中的数值数据:归一化

笔记本 LM

#language
#generativeAI

一款基于 Gemini 的工具,可让用户上传文档,然后使用提示来提问、总结或整理这些文档。例如,作者可以上传几篇短篇小说,并让 NotebookLM 找出它们的共同主题,或确定哪篇小说最适合改编成电影。

新颖点检测

确定新(新颖)样本是否与训练集来自同一分布的过程。换句话说,在训练集上训练后,新颖性检测会确定示例(在推理期间或在额外训练期间)是否为离群值

离群值检测相对。

数值数据

#fundamentals

用整数或实数表示的特征。 例如,房屋估值模型可能会将房屋面积(以平方英尺或平方米为单位)表示为数值数据。将特征表示为数值数据表明,特征的值与标签之间存在数学关系。也就是说,房屋的平方米数可能与房屋的价值存在某种数学关系。

并非所有整数数据都应表示为数值数据。例如,世界某些地区的邮政编码是整数;不过,整数邮政编码不应在模型中表示为数值数据。这是因为邮政编码 20000 的效果并不是邮政编码 10000 的两倍(或一半)。此外,虽然不同的邮政编码确实与不同的房地产价值相关联,但我们不能假设邮政编码为 20000 的房地产价值是邮政编码为 10000 的房地产价值的两倍。邮政编码应表示成分类数据

数值特征有时称为连续特征

如需了解详情,请参阅机器学习速成课程中的处理数值数据

NumPy

一个 开源数学库,在 Python 中提供高效的数组操作。pandas 是基于 NumPy 构建的。

O

目标

#Metric

算法尝试优化的指标

目标函数

#Metric

模型旨在优化的数学公式或指标。 例如,线性回归的目标函数通常是均方损失。因此,在训练线性回归模型时,训练旨在尽量减少均方损失。

在某些情况下,目标是最大化目标函数。 例如,如果目标函数是准确率,则目标是最大限度地提高准确率。

另请参阅损失

斜向条件

#df

决策树中,涉及多个特征条件。例如,如果高度和宽度都是特征,则以下是斜条件:

  height > width

轴对齐条件相对。

如需了解详情,请参阅决策森林课程中的条件类型

离线

#fundamentals

static 的含义相同。

离线推理

#fundamentals

模型生成一批预测,然后缓存(保存)这些预测的过程。然后,应用可以从缓存中访问推理预测,而无需重新运行模型。

例如,假设有一个模型每 4 小时生成一次本地天气预报(预测)。每次运行模型后,系统都会缓存所有本地天气预报。天气应用从缓存中检索预报。

离线推理也称为静态推理

在线推理相对。 如需了解详情,请参阅机器学习速成课程中的生产环境中的机器学习系统:静态推理与动态推理

独热编码

#fundamentals

将分类数据表示为一个向量,其中:

  • 一个元素设置为 1。
  • 所有其他元素均设置为 0。

独热编码常用于表示拥有有限个可能值的字符串或标识符。例如,假设某个名为 Scandinavia 的分类特征有五个可能的值:

  • "丹麦"
  • “瑞典”
  • “挪威”
  • “芬兰”
  • "冰岛"

独热编码可以将这五个值分别表示为:

国家/地区 向量
"丹麦" 1 0 0 0 0
“瑞典” 0 1 0 0 0
“挪威” 0 0 1 0 0
“芬兰” 0 0 0 1 0
"冰岛" 0 0 0 0 1

借助独热编码,模型可以根据这五个国家/地区中的每一个来学习不同的关联。

将特征表示为数值数据是独热编码的替代方案。遗憾的是,以数字形式表示斯堪的纳维亚国家/地区并不是一个好的选择。例如,请考虑以下数字表示法:

  • “丹麦”为 0
  • “瑞典”为 1
  • “挪威”为 2
  • “芬兰”为 3
  • “冰岛”是 4

借助数值编码,模型将以数学方式解读原始数字,并尝试基于这些数字进行训练。不过,冰岛的实际值并非挪威的两倍(或一半),因此模型会得出一些奇怪的结论。

如需了解详情,请参阅机器学习速成课程中的类别型数据:词汇和独热编码

单样本学习

一种机器学习方法,通常用于对象分类,旨在从单个训练示例中学习有效的分类模型

另请参阅少量样本学习零样本学习

单样本提示

#language
#generativeAI

包含一个示例的提示,用于演示大型语言模型应如何回答。例如,以下提示包含一个示例,向大语言模型展示了它应该如何回答查询。

一个提示的组成部分 备注
指定国家/地区的官方货币是什么? 您希望 LLM 回答的问题。
法国:欧元 举个例子。
印度 实际查询。

比较并对比一次性提示与以下术语:

一对多

#fundamentals

假设某个分类问题有 N 个类别,一种解决方案包含 N 个单独的二元分类器 - 一个二元分类器对应一种可能的结果。例如,假设有一个模型可将示例分类为动物、植物或矿物,一对多解决方案将提供以下三个单独的二元分类器:

  • 动物与非动物
  • 蔬菜与非蔬菜
  • 矿物质与非矿物质

在线

#fundamentals

动态的含义相同。

在线推理

#fundamentals

根据需求生成预测。例如,假设某个应用将输入内容传递给模型,并发出预测请求。使用在线推理的系统会通过运行模型来响应请求(并将预测结果返回给应用)。

离线推理相对。

如需了解详情,请参阅机器学习速成课程中的生产环境中的机器学习系统:静态推理与动态推理

操作 (op)

#TensorFlow

在 TensorFlow 中,任何创建、操纵或销毁Tensor的过程都属于操作。例如,矩阵相乘运算会接受两个张量作为输入,并生成一个张量作为输出。

Optax

一个适用于 JAX 的梯度处理和优化库。Optax 通过提供可按自定义方式重新组合的构建块来促进研究,以优化深度神经网络等参数化模型。其他目标包括:

  • 提供可读、经过充分测试且高效的核心组件实现。
  • 通过将低级成分组合成自定义优化器(或其他梯度处理组件)来提高效率。
  • 让任何人都能轻松贡献想法,从而加快新想法的采用速度。

optimizer

梯度下降法的一种具体实现。热门优化器包括:

  • AdaGrad,即 ADAptive GRADient descent。
  • Adam,表示“ADAptive with Momentum”(自适应动量)。

群外同质性偏差

#responsible

在比较态度、价值观、性格特质和其他特征时,倾向于认为群外成员之间比群内成员更为相似。群内成员是指您经常与之互动的人员;群外成员是指您不经常与之互动的人员。如果您通过让参与者提供有关群外成员的特性来创建数据集,相比参与者列出的群内成员的特性,群外成员的这些特性可能不太细微且更加刻板。

例如,小人国居民可以详细描述其他小人国居民的房屋,指出建筑风格、窗户、门和大小之间的细微差异。但是,同样的小人国居民可能直接声称大人国居民住的房屋完全一样。

群外同质性偏差是一种群体归因偏差

另请参阅群内偏差

离群值检测

识别训练集中的离群值的过程。

新颖点检测相对。

离群数据

与大多数其他值相差甚远的值。在机器学习中,以下任何一项都属于离群值:

  • 值比平均值高大约 3 个标准偏差的输入数据。
  • 绝对值很高的权重
  • 与实际值相差很大的预测值。

例如,假设 widget-price 是某个模型的特征。 假设平均值 widget-price 为 7 欧元,标准差为 1 欧元。因此,包含 12 欧元或 2 欧元的示例会被视为离群值,因为这两个价格与平均值的差值均为 5 个标准差。widget-price

离群值通常是由拼写错误或其他输入错误造成的。在其他情况下,离群值并非错误;毕竟,距离平均值五个标准差的值虽然很少见,但并非不可能。

离群值常常会导致模型训练出现问题。裁剪是管理离群值的一种方法。

如需了解详情,请参阅机器学习速成课程中的处理数值数据

袋外评估(OOB 评估)

#df

一种用于评估决策森林质量的机制,通过针对决策树训练期间使用的示例来测试每个决策树。例如,在下图中,请注意,系统会使用大约三分之二的示例来训练每个决策树,然后使用剩余的三分之一示例进行评估。

包含三棵决策树的决策森林。
          一个决策树使用三分之二的示例进行训练,然后使用剩余的三分之一进行 OOB 评估。
          第二个决策树使用与前一个决策树不同的三分之二的示例进行训练,然后使用与前一个决策树不同的三分之一的示例进行 OOB 评估。

袋外评估是一种计算效率高且保守的交叉验证机制的近似方法。在交叉验证中,每个交叉验证轮次都会训练一个模型(例如,在 10 折交叉验证中会训练 10 个模型)。借助 OOB 评估,系统会训练单个模型。由于 bagging 在训练期间会从每棵树中留出一些数据,因此 OOB 评估可以使用这些数据来近似交叉验证。

如需了解详情,请参阅决策森林课程中的袋外评估

输出层

#fundamentals

神经网络的“最终”层。输出层包含预测结果。

下图展示了一个小型深度神经网络,其中包含一个输入层、两个隐藏层和一个输出层:

具有一个输入层、两个隐藏层和一个输出层的神经网络。输入层包含两个特征。第一个隐藏层包含 3 个神经元,第二个隐藏层包含 2 个神经元。输出层由单个节点组成。

过拟合

#fundamentals

创建的模型训练数据过于匹配,以致于模型无法根据新数据做出正确的预测。

正则化可以减少过拟合。 使用庞大而多样的训练集进行训练也有助于减少过拟合。

如需了解详情,请参阅机器学习速成课程中的过拟合

过采样

分类不平衡的数据集中重复使用少数类示例,以创建更平衡的训练集

例如,假设有一个二元分类问题,其中多数类与少数类的比率为 5,000:1。如果数据集包含 100 万个示例,那么少数类只包含大约 200 个示例,这可能不足以进行有效的训练。为了克服这一不足,您可以多次对这 200 个示例进行过采样(重复使用),从而可能获得足够的示例来进行有效训练。

在过采样时,您需要注意过度拟合

欠采样相对。

P

打包数据

一种更高效地存储数据的方法。

打包数据以压缩格式或其他方式存储数据,以便更高效地访问数据。打包数据可最大限度地减少访问数据所需的内存和计算量,从而加快训练速度并提高模型推理效率。

打包数据通常与其他技术(例如数据扩充正则化)搭配使用,以进一步提高模型的性能。

PaLM

Pathways 语言模型的缩写。

pandas

#fundamentals

基于 numpy 构建的面向列的数据分析 API。 许多机器学习框架(包括 TensorFlow)都支持将 Pandas 数据结构作为输入。如需了解详情,请参阅 Pandas 文档

参数

#fundamentals

模型在训练期间学习的权重偏差。例如,在线性回归模型中,参数包括以下公式中的偏差 (b) 和所有权重(w1w2 等):

$$y' = b + w_1x_1 + w_2x_2 + … w_nx_n$$

相比之下,超参数(或超参数调节服务)提供给模型的值。例如,学习速率就是一种超参数。

参数高效调优

#language
#generativeAI

一组用于比完全微调更高效地微调大型预训练语言模型 (PLM)的技术。与完全微调相比,参数高效调优通常会微调少得多的参数,但通常会生成一个大型语言模型,其性能与通过完全微调构建的大型语言模型相当(或几乎相当)。

比较参数高效调优与以下方法的异同:

参数高效调优也称为参数高效微调

参数服务器 (PS)

#TensorFlow

一种作业,负责在分布式环境中跟踪模型参数

参数更新

在训练期间调整模型参数的操作,通常在单次梯度下降迭代中进行。

偏导数

一种导数,其中除一个变量之外的所有变量都被视为常量。 例如,f(x, y) 相对于 x 的偏导数是将 f 视为仅以 x 为变量的函数(即保持 y 不变)的导数。f 对 x 的偏导数仅关注 x 如何变化,而忽略公式中的所有其他变量。

参与偏差

#responsible

与无回答偏差的含义相同。请参阅选择性偏差

划分策略

参数服务器间分割变量的算法。

前 k 名准确率(pass@k)

#Metric

一种用于确定大语言模型生成的代码(例如 Python)质量的指标。更具体地说,通过率(前 k 名)表示在生成的 k 个代码块中,至少有一个代码块通过所有单元测试的可能性。

大语言模型通常难以针对复杂的编程问题生成优质代码。软件工程师通过提示大语言模型为同一问题生成多个 (k) 解决方案来应对此问题。然后,软件工程师会针对单元测试对每个解决方案进行测试。通过率(在 k 处)的计算取决于单元测试的结果:

  • 如果这些解决方案中有一个或多个通过了单元测试,则 LLM 通过了该代码生成挑战。
  • 如果没有任何解决方案通过单元测试,则 LLM 未能通过该代码生成挑战。

k 处的通过率公式如下:

\[\text{pass at k} = \frac{\text{total number of passes}} {\text{total number of challenges}}\]

一般来说,k 值越高,Pass@k 得分就越高;不过,k 值越高,所需的大型语言模型和单元测试资源就越多。

Pathways Language Model (PaLM)

一款较旧的模型,是 Gemini 模型的前身。

Pax

#generativeAI

一种编程框架,旨在训练大规模神经网络 模型,这些模型非常庞大,以至于需要跨多个 TPU 加速器芯片 切片Pod

Pax 基于 Flax 构建,而 Flax 基于 JAX 构建。

图表:显示 Pax 在软件堆栈中的位置。
          Pax 基于 JAX 构建。Pax 本身由三层组成。底层包含 TensorStore 和 Flax。
          中间层包含 Optax 和 Flaxformer。顶层包含 Praxis 建模库。Fiddle 基于 Pax 构建。

感知机

一种系统(硬件或软件),该系统先获取一个或多个输入值,接着对这些输入的加权和运行函数,然后计算单个输出值。在机器学习中,该函数通常是非线性函数,例如 ReLUsigmoidtanh。例如,以下感知机依赖 S 型函数来处理三个输入值:

$$f(x_1, x_2, x_3) = \text{sigmoid}(w_1 x_1 + w_2 x_2 + w_3 x_3)$$

在下图中,感知机先获取三个输入,每个输入本身会经过权重的修改,然后才进入感知机:

采用 3 个输入值的感知机,每个输入值与单独的权重相乘。感知机输出单个值。

感知器是神经网络中的神经元

性能

#Metric

一个多含义术语,具有以下含义:

  • 在软件工程中的标准含义。即:软件的运行速度有多快(或有多高效)?
  • 在机器学习中的含义。在机器学习领域,性能旨在回答以下问题:模型的准确度有多高?即模型在预测方面的表现有多好?

排列变量重要性

#df
#Metric

一种变量重要性,用于评估在对特征值进行置换模型预测误差的增加幅度。排列变量重要性是一种与模型无关的指标。

困惑度

#Metric

一种衡量指标,用于衡量模型能够多好地完成任务。 例如,假设您的任务是读取用户在手机键盘上输入的前几个字母,并提供可能的补全字词列表。此任务的困惑度 P 大致是指您需要提供多少个猜测,才能使您的列表包含用户尝试输入的实际字词。

困惑度与交叉熵的关系如下:

$$P= 2^{-\text{cross entropy}}$$

流水线

围绕机器学习算法的基础设施。流水线包括收集数据、将数据放入训练数据文件、训练一个或多个模型,以及将模型导出到生产环境。

如需了解详情,请参阅“管理机器学习项目”课程中的机器学习流水线

流水线

#language

一种模型并行,其中模型的处理分为连续的阶段,每个阶段在不同的设备上执行。当某个阶段处理一个批次时,前一个阶段可以处理下一个批次。

另请参阅分阶段训练

pjit

一种 JAX 函数,用于拆分代码以在多个加速器芯片上运行。用户将一个函数传递给 pjit,该函数会返回一个具有等效语义的函数,但该函数会被编译为在多个设备(例如 GPU 或 TPU 核心)上运行的 XLA 计算。

pjit 使用户能够使用 SPMD 分区器对计算进行分片,而无需重写计算。

截至 2023 年 3 月,pjit 已与 jit 合并。如需了解详情,请参阅分布式数组和自动并行化

PLM

#language
#generativeAI

预训练语言模型的缩写。

pmap

一种 JAX 函数,可在多个底层硬件设备(CPU、GPU 或 TPU)上执行输入函数的副本,并使用不同的输入值。pmap 依赖于 SPMD

政策

#rl

在强化学习中,代理状态行动的概率映射。

池化

#image

将一个或多个由前面的卷积层创建的矩阵压缩为较小的矩阵。 池化通常涉及取池化区域中的最大值或平均值。例如,假设我们有以下 3x3 矩阵:

3x3 矩阵 [[5,3,1], [8,2,5], [9,4,3]]。

池化运算与卷积运算类似:将矩阵分割为多个切片,然后按步长逐个运行卷积运算。例如,假设池化运算以 1x1 的步长将卷积矩阵分割为 2x2 的切片。如下图所示,系统会执行四次池化操作。假设每个池化操作都会选择相应切片中的最大值:

输入矩阵为 3x3,值如下:[[5,3,1], [8,2,5], [9,4,3]]。
          输入矩阵的左上角 2x2 子矩阵为 [[5,3], [8,2]],因此左上角池化操作会生成值 8(即 5、3、8 和 2 中的最大值)。输入矩阵的右上角 2x2 子矩阵为 [[3,1], [2,5]],因此右上角池化运算会产生值 5。输入矩阵的左下角 2x2 子矩阵为 [[8,2], [9,4]],因此左下角池化操作会产生值 9。输入矩阵的右下角 2x2 子矩阵为 [[2,5], [4,3]],因此右下角池化操作会生成值 5。总而言之,池化操作会生成 2x2 矩阵 [[8,5], [9,5]]。

池化有助于在输入矩阵中实现平移不变性

用于视觉应用的池化更正式的名称是空间池化。时序应用通常将池化称为时序池化。在不太正式的场合,池化通常称为子采样下采样

请参阅机器学习实践课程:图像分类中的卷积神经网络简介

位置编码

#language

一种将序列中词法单元的位置信息添加到词法单元嵌入中的技术。Transformer 模型使用位置编码来更好地了解序列不同部分之间的关系。

位置编码的常见实现方式是使用正弦函数。(具体而言,正弦函数的频率和振幅由序列中令牌的位置决定。)此技术使 Transformer 模型能够学习根据序列中不同部分的位置来关注它们。

正类别

#fundamentals
#Metric

您要测试的类。

例如,在癌症模型中,正类别可以是“肿瘤”。 在电子邮件分类模型中,正类别可以是“垃圾邮件”。

负类别相对。

后处理

#responsible
#fundamentals

在模型运行调整模型输出。 后期处理可用于强制执行公平性限制,而无需修改模型本身。

例如,可以对二元分类器应用后处理,方法是设置分类阈值,以通过检查真正例率对于相应属性的所有值是否相同,来确保机会均等

后训练模型

#language
#image
#generativeAI

一个宽泛定义的术语,通常是指经过一些后处理(例如以下一项或多项)的预训练模型

PR AUC(PR 曲线下的面积)

#Metric

通过绘制不同分类阈值的(召回率、精确率)点而获得的插值精确率-召回率曲线下的面积。

Praxis

Pax 的核心高性能机器学习库。Praxis 通常称为“Layer 库”。

Praxis 不仅包含 Layer 类的定义,还包含其大部分支持组件,包括:

Praxis 为 Model 类提供定义。

精确度

#fundamentals
#Metric

一种分类模型指标,可为您提供以下信息:

当模型预测为正类别时,预测正确的百分比是多少?

公式如下:

$$\text{Precision} = \frac{\text{true positives}} {\text{true positives} + \text{false positives}}$$

其中:

  • 真正例是指模型正确预测了正类别。
  • 假正例是指模型错误地预测了正类别。

例如,假设某个模型做出了 200 次正预测。在这 200 个正例预测中:

  • 其中 150 个是真正例。
  • 其中 50 个是假正例。

在此示例中:

$$\text{Precision} = \frac{\text{150}} {\text{150} + \text{50}} = 0.75$$

准确率召回率相对。

如需了解详情,请参阅机器学习速成课程中的分类:准确率、召回率、精确率和相关指标

前 k 名的精确率 (precision@k)

#language
#Metric

用于评估排名(有序)商品列表的指标。 前 k 项的准确率是指该列表中的前 k 项中“相关”项所占的比例。具体来说:

\[\text{precision at k} = \frac{\text{relevant items in first k items of the list}} {\text{k}}\]

k 的值必须小于或等于返回列表的长度。 请注意,返回列表的长度不属于计算的一部分。

相关性通常是主观的;即使是专业的人工评估员,也经常在哪些内容相关的问题上意见不一。

比较对象:

精确率与召回率曲线

#Metric

在不同分类阈值下,精确率召回率的对比曲线。

预测

#fundamentals

模型的输出。例如:

  • 二元分类模型的预测结果要么是正类别,要么是负类别。
  • 多类别分类模型的预测结果是一个类别。
  • 线性回归模型的预测结果是一个数字。

预测偏差

#Metric

一个值,用于指示数据集中的预测平均值与标签平均值之间的差距。

请勿与机器学习模型中的偏差项道德和公平性偏差混淆。

预测性机器学习

任何标准(“经典”)机器学习系统。

“预测性机器学习”一词没有正式定义。相反,该术语用于区分基于生成式 AI 的一类机器学习系统。

预测性平价

#responsible
#Metric

一种公平性指标,用于检查对于给定的分类器,所考虑的子群组的精确率是否相等。

例如,如果某个预测大学录取情况的模型对小人国人和巨人国人的精确率相同,则该模型会满足民族的预测均等性。

预测同等性有时也称为预测率同等性

如需更详细地了解预测对等性,请参阅“公平性定义说明”(第 3.2.1 部分)。

预测性价格一致性

#responsible
#Metric

预测奇偶性的另一个名称。

预处理

#responsible
在数据用于训练模型之前对其进行处理。预处理可以很简单,例如从英文文本语料库中移除未出现在英语词典中的字词;也可以很复杂,例如以尽可能消除与敏感属性相关联的属性的方式重新表达数据点。预处理有助于满足公平性约束条件

预训练模型

#language
#image
#generativeAI

虽然此术语可以指任何经过训练的模型或经过训练的嵌入向量,但预训练模型现在通常是指经过训练的大语言模型或其他形式的经过训练的生成式 AI 模型。

另请参阅基础模型基础模型

预训练

#language
#image
#generativeAI

在大型数据集上对模型进行初始训练。有些预训练模型是笨拙的巨人,通常必须通过额外的训练来改进。 例如,机器学习专家可能会使用庞大的文本数据集(例如维基百科中的所有英文网页)预训练大语言模型。预训练完成后,可以通过以下任一技术进一步优化生成的模型:

先验信念

在开始用数据进行训练之前,您对这些数据抱有的信念。 例如,L2 正则化依赖于这样一种先验信念:权重应该很小且以 0 为中心呈正态分布。

专业版

#generativeAI

一种 Gemini 模型,其形参数量少于 Ultra,但多于 Nano。如需了解详情,请参阅 Gemini Pro

概率回归模型

一种回归模型,不仅使用每个特征权重,还使用这些权重的不确定性。概率回归模型会生成预测以及相应预测的不确定性。例如,概率回归模型可能会生成 325 的预测值,标准差为 12。如需详细了解概率回归模型,请参阅 tensorflow.org 上的这个 Colab

概率密度函数

#Metric

一种用于确定具有确切特定值的数据样本的频次的函数。如果数据集的值是连续的浮点数,则很少会出现完全匹配的情况。不过,对概率密度函数从值 x 到值 y 进行积分,可得出介于 xy 之间的数据样本的预期频次。

例如,假设有一个平均值为 200、标准差为 30 的正态分布。若要确定落在 211.4 到 218.7 范围内的数据样本的预期频次,您可以对正态分布的概率密度函数从 211.4 到 218.7 进行积分。

提示

#language
#generativeAI

作为输入内容输入到大语言模型的任何文本,用于让模型以某种特定方式运作。提示可以短至一个短语,也可以任意长(例如,整部小说的文本)。提示可分为多种类别,包括下表所示的类别:

提示类别 示例 备注
问题 鸽子能飞多快?
指令 写一首关于套利的幽默诗。 要求大语言模型执行某种操作的提示。
示例 将 Markdown 代码转换为 HTML。例如:
Markdown:* 列表项
HTML:<ul> <li>列表项</li> </ul>
此示例提示中的第一句话是一条指令。 提示的其余部分是示例。
角色 向物理学博士解释为什么在机器学习训练中使用梯度下降法。 句子的第一部分是指令;“物理学博士”一词是角色部分。
供模型补全的部分输入 英国首相居住在 部分输入提示可以突然结束(如本例所示),也可以以下划线结尾。

生成式 AI 模型可以根据提示生成文本、代码、图片、嵌入、视频…几乎任何内容。

基于提示的学习

#language
#generativeAI

某些模型的一项功能,可让模型根据任意文本输入(提示)调整其行为。在典型的基于提示的学习范式中,大语言模型通过生成文本来响应提示。例如,假设用户输入了以下提示:

总结牛顿第三运动定律。

能够进行基于提示的学习的模型并非专门训练来回答之前的提示。相反,模型“知道”很多关于物理学的事实、很多关于一般语言规则的知识,以及很多关于哪些答案通常有用的知识。这些知识足以提供(希望)有用的答案。其他人类反馈(例如“这个回答太复杂了”或“什么是反应?”)使一些基于提示的学习系统能够逐步提高回答的实用性。

提示设计

#language
#generativeAI

提示工程的含义相同。

提示工程

#language
#generativeAI

创建提示的艺术,这些提示可从大型语言模型中引出所需回答。人类执行提示工程。编写结构清晰的提示是确保从大语言模型获得有用回答的重要环节。提示工程取决于多种因素,包括:

  • 用于预训练和可能微调大语言模型的数据集。
  • 模型用于生成回答的温度和其他解码参数。

提示设计是提示工程的同义词。

如需详细了解如何撰写有用的提示,请参阅提示设计简介

提示调优

#language
#generativeAI

一种参数高效调优机制,用于学习系统预先添加到实际提示中的“前缀”。

提示调优的一种变体(有时称为“前缀调优”)是在每个层前面添加前缀。相比之下,大多数提示调整只会向输入层添加前缀。

代理(敏感属性)

#responsible
用作敏感属性的替代属性。例如,个人的邮政编码可能会被用作其收入、种族或民族的代理变量。

代理标签

#fundamentals

用于逼近未在数据集内直接提供的标签的数据。

例如,假设您必须训练一个模型来预测员工压力水平。您的数据集包含许多预测性特征,但不包含名为“压力水平”的标签。 您毫不气馁,选择“工作场所事故”作为压力水平的代理标签。毕竟,压力大的员工比心态平静的员工更容易发生事故。还是会?或许,工作场所事故的发生率实际上会因多种原因而上升和下降。

再举一个例子,假设您希望将是否下雨?设为数据集的布尔型标签,但该数据集不包含下雨数据。如果有照片,您能够以人们带着雨伞的照片作为“在下雨吗?”的代理标签。这是一个好的代理标签吗?可能,但某些文化背景的人可能更倾向于带伞防晒,而不是防雨。

代理标签通常并不完美。如果可以,请选择实际标签,而不是代理标签。不过,如果缺少实际标签,请非常谨慎地选择代理标签,选择最不糟糕的代理标签候选对象。

如需了解详情,请参阅机器学习速成课程中的数据集:标签

纯函数

一种输出仅基于其输入且没有附带效应的函数。具体来说,纯函数不会使用或更改任何全局状态,例如文件内容或函数外部的变量值。

纯函数可用于创建线程安全的代码,这在跨多个加速器芯片模型代码进行分片时非常有用。

JAX 的函数转换方法要求输入函数是纯函数。

Q

Q 函数

#rl

强化学习中,用于预测在状态下采取行动并遵循给定策略后获得的预期回报的函数。

Q 函数也称为状态-动作值函数

Q-learning

#rl

强化学习中,一种算法通过应用 Bellman 方程,使智能体能够学习 Markov 决策过程的最佳 Q 函数。马尔可夫决策过程可对环境进行建模。

分位数

分位数分桶中的每个分桶。

分位数分桶

将一个特征的值分发到中,使每个桶包含的样本数量相同(或几乎相同)。例如,下图将 44 个点分到 4 个桶中,每个桶包含 11 个点。为使图中每个分桶包含的点数相同,有些分桶对应的 x 值的跨度不同。

44 个数据点分为 4 个桶,每个桶包含 11 个数据点。
          虽然每个分桶包含的数据点数量相同,但有些分桶包含的特征值范围比其他分桶更广。

如需了解详情,请参阅机器学习速成课程中的数值数据:分箱

量化

一个多含义术语,可用于以下任何一种情况:

  • 对特定特征实现分位数分桶
  • 将数据转换为 0 和 1,以便更快地存储、训练和推理。由于布尔值数据比其他格式的数据更不容易受到噪声和错误的影响,因此量化可以提高模型的正确性。 量化技术包括舍入、截断和分箱
  • 减少用于存储模型参数的位数。例如,假设模型的形参存储为 32 位浮点数。量化会将这些参数从 32 位转换为 4 位、8 位或 16 位。量化可减少以下方面:

    • 计算、内存、磁盘和网络用量
    • 推理预测的时间
    • 功耗

    不过,量化有时会降低模型预测的正确性。

队列

#TensorFlow

一种实现队列数据结构的 TensorFlow 操作。通常用于 I/O。

R

RAG

#fundamentals

检索增强生成的缩写。

随机森林

#df

一种由决策树组成的集成,其中每个决策树都使用特定的随机噪声进行训练,例如 bagging

随机森林是一种决策森林

如需了解详情,请参阅决策森林课程中的随机森林

随机政策

#rl

强化学习中,一种随机选择行动政策

排序(序数)

在将类别从最高到最低进行分类的机器学习问题中,类别的顺序位置。例如,行为排序系统可以将狗狗的奖励从最高(牛排)到最低(枯萎的羽衣甘蓝)进行排序。

秩(张量)

#TensorFlow

Tensor中的维数。例如,标量的秩为 0,向量的秩为 1,矩阵的秩为 2。

请勿与排序(序数)混淆。

排名

一种监督式学习,其目标是对项目列表进行排序。

rater

#fundamentals

示例提供标签的人员。 “注释者”是评分者的另一种称呼。

如需了解详情,请参阅机器学习速成课程中的类别数据:常见问题

召回

#fundamentals
#Metric

一种分类模型指标,可为您提供以下信息:

标准答案正类别时,模型正确识别为正类别的预测所占的百分比是多少?

公式如下:

\[\text{Recall} = \frac{\text{true positives}} {\text{true positives} + \text{false negatives}} \]

其中:

  • 真正例是指模型正确预测了正类别。
  • 假负例是指模型错误地预测了负类别

例如,假设您的模型对评估依据为正类别的样本进行了 200 次预测。在这 200 个预测中:

  • 其中 180 个是真正例。
  • 其中 20 个为假负例。

在此示例中:

\[\text{Recall} = \frac{\text{180}} {\text{180} + \text{20}} = 0.9 \]

如需了解详情,请参阅分类:准确率、召回率、精确率和相关指标

前 k 名召回率 (recall@k)

#language
#Metric

一种用于评估输出排名(有序)商品列表的系统的指标。 “前 k 项的召回率”是指在返回的相关项总数中,相应列表的前 k 项中相关项所占的比例。

\[\text{recall at k} = \frac{\text{relevant items in first k items of the list}} {\text{total number of relevant items in the list}}\]

k 处的精确率相对。

推荐系统

#recsystems

一种系统,从大型语料库为每位用户选择相对较小的所需推荐项集合。 例如,视频推荐系统可能会从包含 100000 部视频的语料库推荐两部视频,为一位用户选择《卡萨布兰卡》和《旧欢新宠:费城故事》,而为另一位用户选择《神奇女侠》和《黑豹》。视频推荐系统可能会根据以下因素进行推荐:

  • 类似用户评过分或观看过的影片。
  • 类型、导演、演员、目标受众…

如需了解详情,请参阅推荐系统课程

修正线性单元 (ReLU)

#fundamentals

一种激活函数,具有以下行为:

  • 如果输入为负数或零,则输出为 0。
  • 如果输入为正数,则输出等于输入。

例如:

  • 如果输入为 -3,则输出为 0。
  • 如果输入为 +3,则输出为 3.0。

以下是 ReLU 的图:

包含两条线的直角坐标曲线图。第一条线的 y 值恒定为 0,沿 x 轴从 -infinity,0 延伸到 0,-0。
          第二行的起始位置为 0,0。此线的斜率为 +1,因此它从 0,0 延伸到 +infinity,+infinity。

ReLU 是一种非常受欢迎的激活函数。尽管 ReLU 的行为很简单,但它仍然能够让神经网络学习特征标签之间的非线性关系。

循环神经网络

#seq

特意运行多次的神经网络,其中每次运行的部分结果会馈送到下一次运行。具体来说,上一次运行时隐藏层中的结果会作为下一次运行时相同隐藏层的部分输入。循环神经网络在评估序列时尤其有用,因此隐藏层可以根据神经网络在序列的前几部分上的前几次运行进行学习。

例如,下图显示了运行四次的循环神经网络。请注意,第一次运行时在隐藏层中学习的值将成为第二次运行时相同隐藏层的部分输入。同样,第二次运行时在隐藏层中学习的值将成为第三次运行时相同隐藏层的部分输入。通过这种方式,循环神经网络逐步训练和预测整个序列的含义,而不只是各个字词的含义。

运行四次以处理四个输入字词的 RNN。

参考文本

#language
#generativeAI

专家对提示的回答。例如,假设有以下提示:

将问题“What is your name?”从英语翻译成法语。

专家的回答可能是:

Comment vous appelez-vous?

各种指标(例如 ROUGE)用于衡量参考文本与机器学习模型生成的文本的匹配程度。

回归模型

#fundamentals

从非正式意义上讲,一种生成数值预测的模型。(相比之下,分类模型会生成类别预测结果。)例如,以下都是回归模型:

  • 预测特定房屋价值(以欧元为单位)的模型,例如 423,000 欧元。
  • 一种模型,用于预测特定树木的预期寿命(以年为单位),例如 23.2 年。
  • 一种模型,用于预测未来 6 小时内某个城市将降雨多少英寸,例如 0.18。

以下是两种常见的回归模型:

  • 线性回归,用于找到最能将标签值与特征拟合的直线。
  • 逻辑回归,它会生成一个介于 0.0 和 1.0 之间的概率,系统通常会将其映射到类预测。

并非所有输出数值预测的模型都是回归模型。在某些情况下,数值预测实际上只是一个恰好具有数值类别名称的分类模型。例如,预测数值邮政编码的模型是分类模型,而不是回归模型。

正则化

#fundamentals

任何可减少过拟合的机制。 常见的正则化类型包括:

正则化也可以定义为对模型复杂性的惩罚。

如需了解详情,请参阅机器学习速成课程中的过拟合:模型复杂性

正则化率

#fundamentals

一个数字,用于指定训练期间正则化的相对重要性。提高正则化率可减少过拟合,但可能会降低模型的预测能力。相反,降低或省略正则化率会增加过拟合。

如需了解详情,请参阅机器学习速成课程中的过拟合:L2 正则化

强化学习 (RL)

#rl

一类算法,用于学习最佳策略,其目标是在与环境互动时最大限度地提高回报。例如,大多数游戏的最终奖励是胜利。 通过对最终带来胜利前的游戏走法序列和最终导致失败的序列进行评估,强化学习系统会变得擅长玩复杂的游戏。

基于人类反馈的强化学习 (RLHF)

#generativeAI
#rl

使用人工评估者的反馈来提高模型回答的质量。 例如,RLHF 机制可以要求用户使用 👍 或 👎 表情符号对模型回答的质量进行评分。然后,系统可以根据该反馈调整其未来的回答。

ReLU

#fundamentals

修正线性单元的缩写。

回放缓冲区

#rl

在类似 DQN 的算法中,智能体用于存储状态转换以供经验回放使用的内存。

副本

训练集模型的副本(或部分),通常存储在另一台机器上。例如,系统可以使用以下策略来实现数据并行

  1. 将现有模型的副本放置在多台机器上。
  2. 向每个副本发送不同的训练集子集。
  3. 汇总 形参更新。

副本还可以指推理服务器的另一个副本。增加副本数量可以增加系统可同时处理的请求数量,但也会增加服务费用。

报告偏差

#responsible

一种事实,即人们对操作、结果或属性进行描述的频率不能反映这些内容实际出现的频率或者某个属性在多大程度上是某类个体的特征。报告偏差可以影响机器学习系统从中学习规律的数据的构成。

例如,在书中,“laughed”比“breathed”更普遍。机器学习模型对书籍语料库中的“laughing”和“breathing”的相对频率进行评估后,可能会确定“laughing”比“breathing”更常见。

如需了解详情,请参阅机器学习速成课程中的公平性:偏差类型

相同的矢量表示。

将数据映射到实用特征的过程。

重排序

#recsystems

推荐系统的最后阶段,在此期间,可能会根据其他(通常是非机器学习)算法,对已获得评分的推荐项重新评分。重排序会对在打分阶段生成的推荐项列表进行评估,然后采取以下操作:

  • 消除用户已购买的推荐项。
  • 提高较新推荐项的得分。

如需了解详情,请参阅推荐系统课程中的重新排名

检索增强生成 (RAG)

#fundamentals

一种技术,利用模型训练后检索到的知识源进行接地,以改善大语言模型 (LLM) 的输出质量。RAG 通过为经过训练的 LLM 提供从可信知识库或文档中检索到的信息,提高了 LLM 回答的准确性。

使用检索增强生成的常见动机包括:

  • 提高模型生成回答的事实准确性。
  • 让模型能够访问其未经训练的知识。
  • 更改模型使用的知识。
  • 使模型能够引用来源。

例如,假设某化学应用使用 PaLM API 生成与用户查询相关的摘要。当应用的后端收到查询时,后端会执行以下操作:

  1. 搜索(“检索”)与用户查询相关的数据。
  2. 将相关化学数据附加(“扩充”)到用户查询中。
  3. 指示 LLM 根据附加的数据创建摘要。

回车键

#rl

在强化学习中,给定某个政策和某个状态,回报是指智能体在从状态开始到情节结束期间,遵循政策预期会收到的所有奖励的总和。智能体通过根据获得奖励所需的状态转换对奖励进行折扣,来考虑预期奖励的延迟性质。

因此,如果折扣率为 \(\gamma\),且 \(r_0, \ldots, r_{N}\)表示直至剧集结束时的奖励,则回报计算如下:

$$\text{Return} = r_0 + \gamma r_1 + \gamma^2 r_2 + \ldots + \gamma^{N-1} r_{N-1}$$

奖励

#rl

在强化学习中,在状态下采取行动的数值结果,由环境定义。

岭正则化

L2 正则化的含义相同。岭正则化一词更常用于纯粹的统计学领域,而 L2 正则化更常用于机器学习中。

RNN

#seq

循环神经网络的缩写。

ROC(接收者操作特征)曲线

#fundamentals
#Metric

在二元分类中,针对不同的分类阈值,绘制真正例率假正例率的对比图。

ROC 曲线的形状表明了二元分类模型区分正类别和负类别的能力。例如,假设某个二元分类模型能够完美区分所有负类别和所有正类别:

一条数轴,右侧有 8 个正例,左侧有 7 个负例。

上述模型的 ROC 曲线如下所示:

ROC 曲线。x 轴为假正例率,y 轴为真正例率。曲线呈倒 L 形。曲线从 (0.0,0.0) 开始,直接向上延伸到 (0.0,1.0)。然后,曲线从 (0.0,1.0) 变为 (1.0,1.0)。

相比之下,下图绘制了一个糟糕模型的原始逻辑回归值,该模型根本无法区分负类和正类:

一条数轴,正例和负类完全混杂在一起。

相应模型的 ROC 曲线如下所示:

ROC 曲线,实际上是从 (0.0,0.0) 到 (1.0,1.0) 的直线。

与此同时,在现实世界中,大多数二元分类模型都会在一定程度上分离正类别和负类别,但通常不会完全分离。因此,典型的 ROC 曲线介于这两个极端之间:

ROC 曲线。x 轴为假正例率,y 轴为真正例率。ROC 曲线近似于一条从西到北的弧线。

从理论上讲,ROC 曲线上最接近 (0.0,1.0) 的点可确定理想的分类阈值。不过,还有一些其他实际问题会影响理想分类阈值的选择。例如,假负例造成的损失可能远高于假正例。

一种名为 AUC 的数值指标可将 ROC 曲线汇总为单个浮点值。

角色提示

#language
#generativeAI

提示的可选部分,用于指定生成式 AI 模型回答的目标受众群体。没有角色提示时,大语言模型提供的答案可能对提问者有用,也可能没用。借助角色提示,大语言模型可以更恰当、更有效地为特定目标受众群体提供回答。例如,以下提示的角色提示部分以粗体显示:

  • 为经济学博士总结此文档。
  • 以 10 岁儿童能理解的方式描述潮汐的原理。
  • 解释 2008 年的金融危机。说话时,可以像对年幼的孩子或金毛寻回犬说话一样。

root

#df

决策树中的起始节点(第一个条件)。按照惯例,图表会将根放在决策树的顶部。例如:

一个包含两个条件和三个叶的决策树。起始条件 (x > 2) 是根。

根目录

#TensorFlow

您指定的目录,用于托管多个模型的 TensorFlow 检查点和事件文件的子目录。

均方根误差 (RMSE)

#fundamentals
#Metric

均方误差的平方根。

旋转不变性

#image

在图片分类问题中,即使图片的方向发生变化,算法也能成功对图片进行分类。例如,无论网球拍是向上、侧向还是向下,该算法仍然可以识别它。请注意,并非总是希望旋转不变;例如,倒置的“9”不应分类为“9”。

另请参阅平移不变性缩放不变性

ROUGE(以召回率为导向的摘要评估研究)

#language
#Metric

用于评估自动摘要和机器翻译模型的一系列指标。 ROUGE 指标用于确定参考文本与机器学习模型生成的文本之间的重叠程度。ROUGE 系列中的每个成员都以不同的方式衡量重叠程度。ROUGE 得分越高,表示参考文本与生成的文本之间的相似度越高。

每个 ROUGE 系列成员通常会生成以下指标:

  • 精确率
  • 召回率
  • F1

如需了解详情和示例,请参阅:

ROUGE-L

#language
#Metric

ROUGE 系列的成员,侧重于参考文本生成文本最长公共子序列的长度。以下公式用于计算 ROUGE-L 的召回率和精确率:

$$\text{ROUGE-L recall} = \frac{\text{longest common sequence}} {\text{number of words in the reference text} }$$
$$\text{ROUGE-L precision} = \frac{\text{longest common sequence}} {\text{number of words in the generated text} }$$

然后,您可以使用 F1 将 ROUGE-L 召回率和 ROUGE-L 精确率汇总为一个指标:

$$\text{ROUGE-L F} {_1} = \frac{\text{2} * \text{ROUGE-L recall} * \text{ROUGE-L precision}} {\text{ROUGE-L recall} + \text{ROUGE-L precision} }$$

ROUGE-L 会忽略参考文本和生成的文本中的所有换行符,因此最长公共子序列可能会跨越多个句子。如果参考文本和生成的文本包含多个句子,那么通常最好使用 ROUGE-L 的一种变体,即 ROUGE-Lsum。ROUGE-Lsum 会确定段落中每个句子的最长公共子序列,然后计算这些最长公共子序列的平均值。

ROUGE-N

#language
#Metric

ROUGE 系列中的一组指标,用于比较参考文本生成文本中特定大小的共享 N-gram。例如:

  • ROUGE-1 用于衡量参考文本和生成文本中共享的 token 数量。
  • ROUGE-2 用于衡量参考文本和生成的文本中共享的二元语法(2-gram)数量。
  • ROUGE-3 用于衡量参考文本和生成的文本中共享的三元语法(3-gram)数量。

您可以使用以下公式计算任何 ROUGE-N 成员的 ROUGE-N 召回率和 ROUGE-N 精确率:

$$\text{ROUGE-N recall} = \frac{\text{number of matching N-grams}} {\text{number of N-grams in the reference text} }$$
$$\text{ROUGE-N precision} = \frac{\text{number of matching N-grams}} {\text{number of N-grams in the generated text} }$$

然后,您可以使用 F1 将 ROUGE-N 召回率和 ROUGE-N 精确率汇总为一个指标:

$$\text{ROUGE-N F}{_1} = \frac{\text{2} * \text{ROUGE-N recall} * \text{ROUGE-N precision}} {\text{ROUGE-N recall} + \text{ROUGE-N precision} }$$

ROUGE-S

#language
#Metric

一种宽容的 ROUGE-N 形式,可实现 skip-gram 匹配。也就是说,ROUGE-N 只会统计完全匹配的 N 元语法,而 ROUGE-S 还会统计被一个或多个字词分隔的 N 元语法。例如,应该考虑以下事项:

在计算 ROUGE-N 时,双元语法“白云”与“白色滚滚的云”不匹配。不过,在计算 ROUGE-S 时,白云白色的滚滚云海相匹配。

R 平方

#Metric

一种回归指标,用于指示标签的变异中有多少是由单个特征或一组特征造成的。R 平方是介于 0 和 1 之间的值,您可以按如下方式解读:

  • R 平方值为 0 表示标签的任何变异都不是由特征集造成的。
  • R 平方值为 1 表示标签的所有变异均由特征集导致。
  • 介于 0 和 1 之间的 R 平方值表示标签的变化在多大程度上可以通过特定特征或特征集来预测。例如,R 平方值为 0.10 表示标签中 10% 的方差是由特征集造成的;R 平方值为 0.20 表示 20% 的方差是由特征集造成的,依此类推。

R 平方是模型预测的值与实际值之间的皮尔逊相关系数的平方。

S

抽样偏差

#responsible

请参阅选择性偏差

放回抽样

#df

一种从一组候选商品中挑选商品的方法,其中同一商品可以多次被选中。“放回”是指每次选择后,所选项目都会返回到候选项目池中。相反的方法是不放回抽样,这意味着候选商品只能被选中一次。

例如,假设有以下水果集:

fruit = {kiwi, apple, pear, fig, cherry, lime, mango}

假设系统随机选择 fig 作为第一个商品。 如果采用放回抽样,系统会从以下集合中选择第二个项:

fruit = {kiwi, apple, pear, fig, cherry, lime, mango}

是的,这与之前的集合相同,因此系统可能会再次选择 fig

如果使用不放回抽样,一旦选中某个样本,就无法再次选中该样本。例如,如果系统随机选择 fig 作为第一个样本,则不能再次选择 fig。因此,系统会从以下(缩减的)集合中选择第二个样本:

fruit = {kiwi, apple, pear, cherry, lime, mango}

SavedModel

#TensorFlow

保存和恢复 TensorFlow 模型时建议使用的格式。SavedModel 是一种独立于语言且可恢复的序列化格式,使较高级别的系统和工具可以创建、使用和转换 TensorFlow 模型。

如需完整的详细信息,请参阅《TensorFlow 编程人员指南》中的保存和恢复部分

实惠

#TensorFlow

一种 TensorFlow 对象,负责保存模型检查点。

标量

单个数字或可表示为为 0 的张量的单个字符串。例如,以下每行代码都会在 TensorFlow 中创建一个标量:

breed = tf.Variable("poodle", tf.string)
temperature = tf.Variable(27, tf.int16)
precision = tf.Variable(0.982375101275, tf.float64)

调节

任何可改变标签、特征值或两者范围的数学转换或技术。某些形式的缩放对于归一化等转换非常有用。

机器学习中常用的缩放形式包括:

  • 线性缩放,通常使用减法和除法的组合将原始值替换为介于 -1 和 +1 之间或介于 0 和 1 之间的数字。
  • 对数缩放,即将原始值替换为其对数。
  • Z-score 归一化,即将原始值替换为表示该特征与平均值之间相差的标准差数量的浮点值。

scikit-learn

一个热门的开源机器学习平台。请访问 scikit-learn.org

评分

#recsystems
#Metric

推荐系统的一部分,用于为候选生成阶段生成的每个商品提供价值或排名。

选择性偏差

#responsible

由于在选择过程中在数据中观察到的样本和未观察到的样本之间产生系统差异,因此根据抽样数据得出的结论存在误差。存在以下形式的选择偏差:

  • 覆盖偏差:在数据集内表示的群体与机器学习模型要进行预测的群体不符。
  • 抽样偏差:数据不是从目标群体中随机收集的。
  • 未回答偏差(也称为参与偏差):某些群体中的用户以不同于其他群体中的用户的比率选择不参加调查问卷。

例如,假设您要创建一个机器学习模型来预测人们对电影的满意程度。为了收集训练数据,您向上映该电影的影院第一排的每个人发一份调查问卷。不假思索地话,这听起来像是收集数据集的合理方式,但是,这种数据收集方式可能会引入以下形式的选择偏差:

  • 覆盖偏差:通过从选择观看电影的人群中采样,您的模型预测可能不会泛化到那些对电影的兴趣尚未到达观看地步的人。
  • 抽样偏差:您仅对第一排的观众进行抽样,而不是从预期群体(影院中的所有观众)进行随机抽样。坐在第一排的观众可能比坐在其他排的观众对电影更感兴趣。
  • 未回答偏差:通常,相比具有温和观点的人,具有强烈观点的人倾向于更频繁地回答可选调查问卷。由于电影调查问卷是可选的,因此回复更有可能形成双峰分布,而不是正态(钟形)分布。

自注意力(也称为自注意力层)

#language

一种神经网络层,可将嵌入序列(例如,令牌嵌入)转换为另一个嵌入序列。输出序列中的每个嵌入都是通过 注意力机制整合输入序列元素的信息来构建的。

自注意力中的“自”是指序列关注自身,而不是其他上下文。自注意力机制是 Transformer 的主要构建块之一,它使用字典查找术语,例如“查询”“键”和“值”。

自注意力层从一系列输入表示开始,每个字词对应一个输入表示。字词的输入表示可以是简单的嵌入。对于输入序列中的每个字词,网络会评估该字词与整个字词序列中每个元素的相关性。相关性得分决定了字词的最终表示形式在多大程度上纳入其他字词的表示形式。

例如,请看以下句子:

这只动物太累了,所以没有过马路。

下图(来自《Transformer:一种用于语言理解的新型神经网络架构》)显示了代词 it 的自注意力层注意力模式,其中每条线的深浅程度表示每个字词对表示的贡献程度:

以下句子出现了两次:The animal didn&#39;t cross the street because it was too tired. 线条将一个句子中的代词“it”与另一个句子中的五个标记(The、animal、street、it 和句点)连接起来。代词“it”与单词“animal”之间的界线最强。

自注意力层会突出显示与“it”相关的字词。在这种情况下,注意力层已学会突出显示可能指代的字词,并为动物分配最高权重。

对于包含 n标记的序列,自注意力机制会分别在序列中的每个位置对嵌入序列进行 n 次转换。

另请参阅注意力多头自注意力

自监督式学习

一类技术,通过从无标签示例创建替代标签,将非监督式机器学习问题转换为监督式机器学习问题。

一些基于 Transformer 的模型(例如 BERT)使用自监督式学习。

自我监督式训练是一种半监督式学习方法。

自训练

一种 自监督学习的变体,在满足以下所有条件时特别有用:

自训练通过迭代执行以下两个步骤,直到模型不再改进:

  1. 使用监督式机器学习基于有标签的示例训练模型。
  2. 使用第 1 步中创建的模型对无标签示例生成预测(标签),并将置信度高的示例移至有标签示例中,并附上预测的标签。

请注意,第 2 步的每次迭代都会为第 1 步添加更多带标签的示例以供训练。

半监督式学习

使用部分训练示例有标签而其他训练示例没有标签的数据来训练模型。半监督式学习的一种方法是推断无标签示例的标签,然后根据推断的标签进行训练,以创建新模型。如果获得有标签样本需要高昂的成本,而无标签样本则有很多,那么半监督式学习将非常有用。

自训练是半监督式学习的一种方法。

敏感属性

#responsible
由于法律、道德、社会或个人原因,可能会受到特别关注的人类属性。

情感分析

#language

使用统计算法或机器学习算法确定群体对某个服务、产品、组织或主题的整体态度(积极或消极)。例如,使用自然语言理解,这种算法会通过对某大学课程的文字反馈进行情感分析,从而确定学生在多大程度上普遍喜欢或不喜欢该课程。

如需了解详情,请参阅文本分类指南。

序列模型

#seq

输入具有序列相关性的模型。例如,根据之前观看过的一系列视频对观看的下一个视频进行预测。

序列到序列任务

#language

一种将输入序列(包含 个词法单元)转换为输出序列(包含词法单元)的任务。例如,两种常见的序列到序列任务是:

  • 翻译人员:
    • 输入序列示例:“我爱你。”
    • 输出序列示例:“Je t'aime.”
  • 问答:
    • 输入序列示例:“我在纽约市需要用车吗?”
    • 输出序列示例:“No. Keep your car at home.”

人份

使训练好的模型能够通过在线推理离线推理提供预测结果的过程。

形状(张量)(shape (Tensor))

张量的每个维度中的元素数量。形状以整数列表表示。例如,以下二维张量的形状为 [3,4]:

[[5, 7, 6, 4],
 [2, 9, 4, 8],
 [3, 6, 5, 1]]

TensorFlow 使用行优先(C 样式)格式来表示维度的顺序,因此 TensorFlow 中的形状为 [3,4] 而不是 [4,3]。换句话说,在二维 TensorFlow 张量中,形状为 [行数列数]

静态形状是指在编译时已知的张量形状。

动态形状在编译时是未知的,因此取决于运行时数据。此张量在 TensorFlow 中可能以占位维度表示,如 [3, ?] 中所示。

分片

#TensorFlow
#GoogleCloud

训练集模型的逻辑划分。通常,某个进程会通过将示例参数划分为(通常)大小相等的块来创建分片。然后,每个分片都会分配给不同的机器。

对模型进行分片称为模型并行处理;对数据进行分片称为数据并行处理

收缩

#df

梯度提升中的超参数,用于控制过拟合。梯度提升中的收缩率类似于梯度下降法中的学习速率。收缩率是介于 0.0 到 1.0 之间的小数值。与较大的收缩值相比,较小的收缩值可更有效地减少过拟合。

并排评估

通过判断两个模型对同一提示的回答来比较它们的质量。例如,假设向两个不同的模型提供以下提示:

制作一张图片,里面有一只可爱的狗狗在玩三个球。

在并排比较评估中,评估人员会选择哪张图片“更好”(更准确?更美观?更可爱?)。

S 型函数

#fundamentals

一种数学函数,可将输入值“挤压”到受限范围内,通常为 0 到 1 或 -1 到 +1。也就是说,您可以向 sigmoid 函数传递任何数字(2、100 万、负 10 亿,等等),输出结果仍会在限定范围内。 Sigmoid 激活函数的图如下所示:

一个二维曲线图,x 值范围为负无穷大到正无穷大,而 y 值范围为接近 0 到接近 1。当 x 为 0 时,y 为 0.5。曲线的斜率始终为正,在 0 和 0.5 处斜率最高,随着 x 的绝对值增加,斜率逐渐减小。

Sigmoid 函数在机器学习中有多种用途,包括:

相似度度量

#clustering
#Metric

聚类算法中,用于确定任何两种样本相似程度的指标。

单程序 / 多数据 (SPMD)

一种并行处理技术,可在不同设备上并行运行相同的计算,但使用不同的输入数据。SPMD 的目标是更快地获得结果。这是最常见的并行编程风格。

缩放不变性

#image

在图片分类问题中,即使图片大小发生变化,算法也能成功对图片进行分类的能力。例如,无论猫的像素数为 200 万还是 20 万,该算法仍然可以识别它。请注意,即使是最好的图片分类算法,在尺寸不变性方面也仍存在实际限制。例如,对于仅以 20 像素呈现的猫图像,算法(或人)不可能正确对其进行分类。

另请参阅平移不变性旋转不变性

如需了解详情,请参阅聚类分析课程

粗略分析

#clustering

非监督式机器学习中,一类算法针对样本执行初步相似性分析。粗略分析算法使用 局部敏感哈希函数确定有可能相似的点,然后将这些点分组到桶中。

粗略分析减少了计算大型数据集相似性所需的计算量。我们仅计算每个桶中的每对点的相似性,而不是计算数据集内每对样本的相似性。

skip-gram

#language

一种 n 元语法,可能会省略(或“跳过”)原始上下文中的字词,这意味着 N 个字词最初可能并不相邻。更确切地说,“k-skip-n-gram”是指最多跳过 k 个字的 n-gram。

例如,“the quick brown fox”具有以下可能的 2-gram:

  • "the quick"
  • “quick brown”
  • “brown fox”

“1-skip-2-gram”是指两个字词之间最多间隔 1 个字词。因此,“the quick brown fox”的 1-skip 2-gram 如下:

  • “the brown”
  • “quick fox”

此外,所有 2 元语法都是 1-skip-2-gram,因为跳过的字词数可能少于一个。

Skip-gram 有助于了解单词周围的更多上下文。 在示例中,“fox”在 1-skip-2-gram 集中直接与“quick”相关联,但在 2-gram 集中则不然。

Skip-gram 有助于训练词嵌入模型。

softmax

#fundamentals

一种函数,可确定多类别分类模型中每个可能类别的概率。这些概率之和正好为 1.0。例如,下表显示了 softmax 如何分布各种概率:

图片是... Probability
0.85
.13
.02

Softmax 也称为完整版 Softmax

候选采样相对。

如需了解详情,请参阅机器学习速成课程中的神经网络:多类别分类

软提示调优

#language
#generativeAI

一种用于针对特定任务调整大型语言模型的技术,无需进行资源密集型微调。与重新训练模型中的所有权重不同,软提示调整会自动调整提示,以实现相同的目标。

在给定文本提示的情况下,软提示调整通常会将额外的令牌嵌入附加到提示中,并使用反向传播来优化输入。

“硬”提示包含实际的令牌,而不是令牌嵌入。

稀疏特征

#language
#fundamentals

一种值主要为零或为空的特征。 例如,包含一个 1 值和一百万个 0 值的特征就是稀疏特征。相比之下,密集特征的值大多不为零或为空。

在机器学习中,出人意料的是,有大量特征是稀疏特征。分类特征通常是稀疏特征。例如,在森林中可能存在的 300 种树木中,单个示例可能仅标识出枫树。或者,在视频库中数百万个可能的视频中,单个示例可能仅标识“卡萨布兰卡”。

在模型中,您通常使用独热编码来表示稀疏特征。如果独热编码很大,您可以在独热编码之上放置一个嵌入层,以提高效率。

稀疏表示法

#language
#fundamentals

仅存储稀疏特征中非零元素的位置。

例如,假设某个名为 species 的分类特征用于标识特定森林中的 36 种树木。进一步假设每个示例仅标识一个物种。

您可以使用 one-hot 向量来表示每个示例中的树种。一个独热向量将包含一个 1(用于表示相应示例中的特定树种)和 35 个 0(用于表示相应示例中存在的 35 个树种)。因此,maple 的独热表示法可能如下所示:

一个向量,其中位置 0 到 23 的值为 0,位置 24 的值为 1,位置 25 到 35 的值为 0。

或者,稀疏表示法只会标识特定物种的位置。如果 maple 位于位置 24,则 maple 的稀疏表示法将非常简单:

24

请注意,稀疏表示法比 one-hot 表示法紧凑得多。

如需了解详情,请参阅机器学习速成课程中的处理分类数据

稀疏向量

#fundamentals

值大部分为零的向量。另请参阅稀疏特征稀疏度

稀疏性

#Metric

向量或矩阵中设置为零(或 null)的元素数量除以该向量或矩阵中的条目总数。例如,假设有一个包含 100 个元素的矩阵,其中 98 个单元格包含零。稀疏度的计算方法如下:

$$ {\text{sparsity}} = \frac{\text{98}} {\text{100}} = {\text{0.98}} $$

特征稀疏度是指特征向量的稀疏度;模型稀疏度是指模型权重的稀疏度。

空间 pooling

#image

请参阅 pooling

拆分

#df

决策树中,条件的另一种名称。

分割器

#df

在训练决策树时,负责在每个节点上找到最佳条件的例程(和算法)。

SPMD

单程序 / 多数据的缩写。

平方合页损失函数

#Metric

合页损失函数的平方。与常规合页损失相比,平方合页损失对离群值的惩罚更严厉。

平方损失函数

#fundamentals
#Metric

L2 损失的含义相同。

分阶段训练

#language

一种以一系列离散阶段训练模型的策略。目标可以是加快训练过程,也可以是实现更好的模型质量。

下图展示了渐进式堆叠方法:

  • 阶段 1 包含 3 个隐藏层,阶段 2 包含 6 个隐藏层,阶段 3 包含 12 个隐藏层。
  • 第 2 阶段开始使用第 1 阶段 3 个隐藏层中学习到的权重进行训练。第 3 阶段开始训练,使用第 2 阶段 6 个隐藏层中学习到的权重。

三个阶段,分别标记为“阶段 1”“阶段 2”和“阶段 3”。
          每个阶段包含不同数量的层:阶段 1 包含 3 层,阶段 2 包含 6 层,阶段 3 包含 12 层。
          第一阶段的 3 个层成为第二阶段的前 3 个层。
          同样,第 2 阶段的 6 个层会成为第 3 阶段的前 6 个层。

另请参阅流水线

#rl

在强化学习中,描述环境当前配置的形参值,智能体使用这些形参值来选择动作

状态-动作值函数

#rl

Q 函数的含义相同。

静态

#fundamentals

一次性完成,而不是持续进行。 术语“static”(静态)和“offline”(离线)是同义词。 以下是机器学习中静态离线的常见用途:

  • 静态模型(或离线模型)是指训练一次后使用一段时间的模型。
  • 静态训练(或离线训练)是指训练静态模型的过程。
  • 静态推理(或离线推理)是指模型一次生成一批预测结果的过程。

动态相对。

静态推理

#fundamentals

离线推理的含义相同。

平稳性

#fundamentals

一种在一个或多个维度(通常是时间)上值保持不变的特征。 例如,如果某个特征在 2021 年和 2023 年的值大致相同,则该特征表现出平稳性。

在现实世界中,很少有特征表现出平稳性。即使是与稳定性同义的特征(例如海平面)也会随时间变化。

非平稳性相对。

步骤

一次前向传递和一次后向传递,针对一个批次

如需详细了解前向传递和后向传递,请参阅反向传播

步长

学习速率的含义相同。

随机梯度下降法 (SGD)

#fundamentals

一种梯度下降算法,其中批次大小为 1。换句话说,SGD 基于从训练集中随机均匀选择的单个样本进行训练。

如需了解详情,请参阅机器学习速成课程中的线性回归:超参数

步长

#image

在卷积运算或池化中,下一系列输入切片的每个维度中的增量。例如,以下动画演示了卷积运算期间的 (1,1) 步长。因此,下一个输入切片从上一个输入切片右侧的一个位置开始。当操作到达右边缘时,下一个切片会一直向左移动,但会向下移动一个位置。

一个 5x5 输入矩阵和一个 3x3 卷积过滤器。由于步幅为 (1,1),因此卷积滤波器将应用 9 次。第一个卷积切片评估输入矩阵的左上角 3x3 子矩阵。第二个切片评估的是顶部中间的 3x3 子矩阵。第三个卷积切片评估的是右上角的 3x3 子矩阵。第四个切片评估的是中间靠左的 3x3 子矩阵。
     第五个切片用于评估中间的 3x3 子矩阵。第 6 个切片用于评估中间靠右的 3x3 子矩阵。第七个切片评估左下角的 3x3 子矩阵。第八个切片评估的是底部中间的 3x3 子矩阵。第 9 个切片评估右下角的 3x3 子矩阵。

上例演示了二维步幅。如果输入矩阵为三维,那么步长也将是三维。

结构风险最小化 (SRM)

一种平衡以下两个目标的算法:

  • 需要构建最具预测性的模型(例如损失最低)。
  • 需要使模型尽可能简单(例如强大的正则化)。

例如,旨在将基于训练集的损失和正则化降至最低的函数就是一种结构风险最小化算法。

经验风险最小化相对。

下采样

#image

请参阅 pooling

子词令牌

#language

语言模型中,词元是字词的子字符串,也可能是整个字词。

例如,“itemize”这样的字词可能会被拆分为“item”(词根)和“ize”(后缀),每个部分都由自己的令牌表示。将不常见的字词拆分为称为子词的片段,可让语言模型处理字词中更常见的组成部分,例如前缀和后缀。

相反,“going”等常用字词可能不会被拆分,而是由单个令牌表示。

摘要

#TensorFlow

在 TensorFlow 中的某一计算出的一个值或一组值,通常用于在训练期间跟踪模型指标。

监督式机器学习

#fundamentals

根据特征及其对应的标签训练模型。监督式机器学习类似于通过研究一系列问题及其对应的答案来学习某个知识。在掌握问题与答案之间的映射关系后,学生便可以回答同一主题的新问题(从未见过的问题)。

非监督式机器学习相对。

如需了解详情,请参阅机器学习简介课程中的监督式学习

合成特征

#fundamentals

一种特征,不在输入特征之列,而是从一个或多个输入特征组装而来。创建合成特征的方法包括:

  • 对连续特征进行分桶,以分为多个区间分箱。
  • 创建特征组合
  • 将一个特征值与其他特征值或其本身相乘(或相除)。例如,如果 ab 是输入特征,则以下是合成特征的示例:
    • ab
    • a2
  • 对特征值应用超越函数。例如,如果 c 是输入特征,则以下是合成特征的示例:
    • sin(c)
    • ln(c)

仅通过归一化缩放创建的特征不属于合成特征。

T

T5

#language

Google AI 于 2020 年推出的文本到文本迁移学习 模型。 T5 是一种基于 Transformer 架构的编码器-解码器模型,经过极大型数据集的训练。它在各种自然语言处理任务(例如生成文本、翻译语言和以对话方式回答问题)方面表现出色。

T5 的名称源自“Text-to-Text Transfer Transformer”(文本到文本转换 Transformer)中的五个 T。

T5X

T5X

#language

一种开源机器学习框架,旨在构建和训练大规模自然语言处理 (NLP) 模型。T5 是在 T5X 代码库(基于 JAXFlax 构建)上实现的。

表格 Q-learning

#rl

强化学习中,通过使用表格存储每个状态动作组合的 Q 函数,实现 Q 学习

目标

标签的含义相同。

目标广告网络

#rl

深度 Q 学习中,神经网络是主要神经网络的稳定近似值,其中主要神经网络实现 Q 函数政策。然后,您可以根据目标网络预测的 Q 值来训练主网络。因此,您可以防止主网络根据自身预测的 Q 值进行训练时出现的反馈循环。通过避免这种反馈,可以提高训练稳定性。

任务

可以使用机器学习技术解决的问题,例如:

温度

#language
#image
#generativeAI

一种超参数,用于控制模型输出的随机程度。温度越高,输出就越随机;温度越低,输出就越不随机。

选择最佳温度取决于具体的应用和/或字符串值。

时态数据

在不同时间点记录的数据。例如,一年中每天记录的冬季外套销售额就是时间数据。

Tensor

#TensorFlow

TensorFlow 程序中的主要数据结构。张量是 N 维(其中 N 可能非常大)数据结构,最常见的是标量、向量或矩阵。张量的元素可以包含整数值、浮点值或字符串值。

TensorBoard

#TensorFlow

一个信息中心,用于显示在执行一个或多个 TensorFlow 程序期间保存的总结信息。

TensorFlow

#TensorFlow

一个大型的分布式机器学习平台。该术语还指 TensorFlow 堆栈中的基本 API 层,它支持对数据流图进行一般计算。

虽然 TensorFlow 主要用于机器学习,但您也可以将 TensorFlow 用于需要使用数据流图进行数值计算的非机器学习任务。

TensorFlow Playground

#TensorFlow

一款程序,用于可视化不同的超参数对模型(主要是神经网络)训练的影响。 如需试用 TensorFlow Playground,请前往 http://playground.tensorflow.org

TensorFlow Serving

#TensorFlow

一个平台,用于将训练过的模型部署到生产环境。

张量处理单元 (TPU)

#TensorFlow
#GoogleCloud

一种应用专用集成电路 (ASIC),用于优化机器学习工作负载的性能。这些 ASIC 作为 TPU 设备上的多个 TPU 芯片进行部署。

张量的阶

#TensorFlow

请参阅秩(张量)

张量形状

#TensorFlow

Tensor在各种维度中包含的元素数。 例如,一个 [5, 10] 张量在一个维度上的形状为 5,在另一个维度上的形状为 10。

张量大小

#TensorFlow

Tensor包含的标量总数。例如,[5, 10] 张量的大小为 50。

TensorStore

用于高效读取和写入大型多维数组的

终止条件

#rl

强化学习中,用于确定学习周期何时结束的条件,例如智能体何时达到某种状态或超过状态转换的阈值数量。 例如,在井字棋(也称为圈叉棋)中,当玩家标记三个连续的空格或所有空格都被标记时,一集就会结束。

test

#df

决策树中,条件的另一种名称。

测试损失

#fundamentals
#Metric

一种表示模型针对测试集损失指标。构建模型时,您通常会尝试最大限度地减少测试损失。这是因为,与较低的训练损失或较低的验证损失相比,较低的测试损失是更强的质量信号。

测试损失与训练损失或验证损失之间的差距过大有时表明您需要提高正则化率

测试集

数据集中预留用于测试已训练模型的子集。

传统上,您需要将数据集中的示例划分为以下三个不同的子集:

数据集中的每个示例都应仅属于上述子集之一。 例如,单个样本不应同时属于训练集和测试集。

训练集和验证集都与模型训练密切相关。由于测试集仅与训练间接相关,因此与训练损失验证损失相比,测试损失是一种偏差更小、质量更高的指标。

如需了解详情,请参阅机器学习速成课程中的数据集:划分原始数据集

文本 span

#language

与文本字符串的特定子部分相关联的数组索引范围。例如,Python 字符串 s="Be good now" 中的字词 good 占据了从 3 到 6 的文本范围。

tf.Example

#TensorFlow

一种标准 协议缓冲区,旨在描述用于机器学习模型训练或推断的输入数据。

tf.keras

#TensorFlow

集成到 TensorFlow 中的 Keras 实现。

阈值(对于决策树)

#df

轴对齐条件中,特征要比较的值。例如,在以下条件中,75 是阈值:

grade >= 75

如需了解详情,请参阅决策森林课程中的使用数值特征进行二元分类的精确拆分器

时序分析

#clustering

机器学习和统计学的一个子领域,旨在分析时态数据。许多类型的机器学习问题都需要进行时间序列分析,包括分类、聚类、预测和异常值检测。例如,您可以利用时间序列分析根据历史销量数据预测未来每月的冬外套销量。

时间步长

#seq

循环神经网络中的一个“展开”的单元格。 例如,下图显示了三个时间步(带有下标 t-1、t 和 t+1):

循环神经网络中的三个时间步。第一个时间步的输出将成为第二个时间步的输入。第二个时间步的输出会成为第三个时间步的输入。

token

#language

语言模型中,模型训练和进行预测所依据的最小单位。令牌通常是以下各项之一:

  • 一个字词 - 例如,短语“dogs like cats”包含三个字词 token:“dogs”“like”和“cats”。
  • 一个字符 - 例如,词组“bike fish”包含 9 个字符令牌。(请注意,空格也算作一个令牌。)
  • 子字词 - 其中,单个字词可以是单个 token,也可以是多个 token。 子字词由词根、前缀或后缀组成。例如,使用子字词作为词元的语言模型可能会将“dogs”一词视为两个词元(词根“dog”和复数后缀“s”)。同一语言模型可能会将“taller”一词视为两个子字词(词根“tall”和后缀“er”)。

在语言模型之外的网域中,词元可以表示其他类型的原子单元。例如,在计算机视觉中,词元可能是图片的一部分。

如需了解详情,请参阅机器学习速成课程中的大型语言模型

tokenizer

#language

一种将输入数据序列转换为令牌的系统或算法。

大多数现代基础模型都是多模态的。多模态系统的分词器必须将每种输入类型转换为适当的格式。例如,如果输入数据同时包含文本和图形,分词器可能会将输入文本转换为子字词,并将输入图片转换为小块。 然后,分词器必须将所有词元转换为一个统一的嵌入空间,使模型能够“理解”多模态输入流。

前 k 名准确率

#language
#Metric

“目标标签”在生成的列表的前 k 个位置中出现的次数所占的百分比。这些列表可以是个性化推荐,也可以是按 softmax 排序的商品列表。

前 k 名准确率也称为前 k 名准确率

深度神经网络的一个组成部分,本身也是一个深度神经网络。在某些情况下,每个塔从独立的数据源读取数据,并且这些塔在最终层中合并输出之前保持独立。在其他情况下(例如,在许多 Transformer编码器解码器塔中),塔之间存在交叉连接。

恶意

#language
#Metric

内容具有侮辱性、威胁性或冒犯性的程度。许多机器学习模型都可以识别和衡量有害内容。这些模型大多会根据多个参数(例如滥用语言的程度和威胁性语言的程度)来识别有害内容。

TPU

#TensorFlow
#GoogleCloud

张量处理单元的缩写。

TPU 芯片

#TensorFlow
#GoogleCloud

一种可编程的线性代数加速器,具有片上高带宽内存,针对机器学习工作负载进行了优化。多个 TPU 芯片部署在 TPU 设备上。

TPU 设备

#TensorFlow
#GoogleCloud

一种印刷电路板 (PCB),包含多个 TPU 芯片、高带宽网络接口和系统冷却硬件。

TPU 节点

#TensorFlow
#GoogleCloud

Google Cloud 上具有特定 TPU 类型的 TPU 资源。TPU 节点通过对等 VPC 网络连接到您的 VPC 网络。TPU 节点是 Cloud TPU API 中定义的一种资源。

TPU Pod

#TensorFlow
#GoogleCloud

Google 数据中心内 TPU 设备的特定配置。TPU Pod 中的所有设备都通过专用高速网络相互连接。TPU Pod 是特定 TPU 版本可用的最大 TPU 设备配置。

TPU 资源

#TensorFlow
#GoogleCloud

您在 Google Cloud 上创建、管理或使用的 TPU 实体。例如,TPU 节点TPU 类型是 TPU 资源。

TPU 切片

#TensorFlow
#GoogleCloud

TPU 切片是 TPU PodTPU 设备的一部分。TPU 切片中的所有设备都通过专用高速网络相互连接。

TPU 类型

#TensorFlow
#GoogleCloud

一种配置,包含一个或多个具有特定 TPU 硬件版本的 TPU 设备。在 Google Cloud 上创建 TPU 节点时,您需要选择 TPU 类型。例如,v2-8 TPU 类型是具有 8 个核心的单个 TPU v2 设备。v3-2048 TPU 类型具有 256 个联网的 TPU v3 设备,总共有 2048 个核心。TPU 类型是 Cloud TPU API 中定义的资源。

TPU 工作进程

#TensorFlow
#GoogleCloud

在主机上运行并在 TPU 设备上执行机器学习程序的进程。

训练

#fundamentals

确定构成模型的理想参数(权重和偏差)的过程。在训练期间,系统会读入个示例,并逐步调整参数。训练会使用每个示例几次到数十亿次不等。

如需了解详情,请参阅机器学习简介课程中的监督式学习

训练损失

#fundamentals
#Metric

一种指标,表示模型在特定训练迭代期间的损失。例如,假设损失函数为均方误差。例如,第 10 次迭代的训练损失(均方误差)为 2.2,第 100 次迭代的训练损失为 1.9。

损失曲线绘制的是训练损失与迭代次数的关系图。损失曲线可提供以下有关训练的提示:

  • 下降的斜率表示模型正在改进。
  • 向上倾斜表示模型效果越来越差。
  • 平坦的斜率表示模型已达到收敛

例如,以下有些理想化的损失曲线显示:

  • 初始迭代期间的陡峭下降斜率,表示模型改进速度很快。
  • 斜率逐渐变平缓(但仍向下),直到接近训练结束时,这表示模型仍在继续改进,但速度比初始迭代时稍慢。
  • 训练结束时斜率趋于平缓,表明模型已收敛。

训练损失与迭代次数的对比图。此损失曲线以陡峭的下降斜率开头。斜率逐渐变平,直至变为零。

虽然训练损失很重要,但另请参阅泛化

训练-应用偏差

#fundamentals

模型在训练期间的性能与同一模型在应用期间的性能之间的差异。

训练集

#fundamentals

用于训练模型数据集子集。

传统上,数据集中的示例分为以下三个不同的子集:

理想情况下,数据集中的每个示例都应仅属于上述子集之一。例如,单个示例不应同时属于训练集和验证集。

如需了解详情,请参阅机器学习速成课程中的数据集:划分原始数据集

轨迹

#rl

强化学习中,表示智能体的一系列状态转换的元组序列,其中每个元组对应于给定状态转换的状态、动作奖励和下一个状态。

迁移学习

将信息从一个机器学习任务转移到另一个机器学习任务。 例如,在多任务学习中,一个模型可以完成多项任务,例如针对不同任务具有不同输出节点的深度模型。迁移学习可能涉及将知识从较简单任务的解决方案迁移到较复杂的任务,或者涉及将知识从数据较多的任务迁移到数据较少的任务。

大多数机器学习系统都只解决一项任务。迁移学习是迈向人工智能的一小步,它使单个程序能够解决多项任务。

Transformer

#language

一种由 Google 开发的神经网络架构,它依赖于自注意力机制,将输入嵌入序列转换为输出嵌入序列,而无需依赖卷积循环神经网络。Transformer 可以视为自注意力层的堆栈。

Transformer 可以包含以下任何内容:

编码器将嵌入序列转换为长度相同的新序列。编码器包含 N 个相同的层,每个层包含两个子层。这两个子层应用于输入嵌入序列的每个位置,将序列的每个元素转换为新的嵌入。第一个编码器子层会汇总整个输入序列中的信息。第二个编码器子层将汇总的信息转换为输出嵌入。

解码器将输入嵌入序列转换为输出嵌入序列,后者的长度可能与前者不同。解码器还包含 N 个相同的层,这些层具有三个子层,其中两个子层与编码器子层类似。第三个解码器子层会获取编码器的输出,并应用自注意力机制从中收集信息。

博文 Transformer:语言理解领域的新型神经网络架构对 Transformer 进行了很好的介绍。

如需了解详情,请参阅机器学习速成课程中的大语言模型:什么是大语言模型?

平移不变性

#image

在图像分类问题中,即使图像中对象的位置发生变化,算法也能成功对图像进行分类的能力。例如,无论一只狗位于画面正中央还是画面左侧,该算法仍然可以识别它。

另请参阅缩放不变性旋转不变性

三元语法

#seq
#language

一种 N 元语法,其中 N=3。

真负例 (TN)

#fundamentals
#Metric

模型正确预测负类别的示例。例如,模型推断出某封电子邮件不是垃圾邮件,而该电子邮件确实不是垃圾邮件

真正例 (TP)

#fundamentals
#Metric

模型正确预测了正类别的示例。例如,模型推断出某封电子邮件是垃圾邮件,而该电子邮件确实是垃圾邮件。

真正例率 (TPR)

#fundamentals
#Metric

召回率的含义相同。具体来说:

$$\text{true positive rate} = \frac {\text{true positives}} {\text{true positives} + \text{false negatives}}$$

真正例率是 ROC 曲线的 y 轴。

TTL

存留时间的缩写。

U

Ultra

#generativeAI

具有最多形参Gemini 模型。 如需了解详情,请参阅 Gemini Ultra

另请参阅 ProNano

无感知(对于敏感属性)

#responsible

存在敏感属性,但未包含在训练数据中。由于敏感属性通常与数据的其他属性相关联,因此即使模型在训练时未考虑敏感属性,仍可能在该属性方面产生差异化影响,或者违反其他公平性限制

欠拟合

#fundamentals

生成具有较差预测能力的模型,因为模型未完全发现训练数据的特征。许多问题都可能导致欠拟合,包括:

如需了解详情,请参阅机器学习速成课程中的过拟合

欠采样

分类不平衡的数据集中的多数类中移除样本,以创建更平衡的训练集

例如,假设某个数据集中多数类与少数类的比率为 20:1。为了克服这种类别不平衡问题,您可以创建一个训练集,其中包含所有少数类别的示例,但只包含十分之一的多数类别示例,这样就可以创建 2:1 的训练集类别比率。得益于欠采样,这个更加平衡的训练集可能会生成更好的模型。或者,这种更平衡的训练集可能包含的示例不足以训练出有效的模型。

过采样相对。

单向

#language

一种仅评估目标文本部分之前的文本的系统。 相比之下,双向系统会评估目标文本部分前面后面的文本。如需了解详情,请参阅双向

单向语言模型

#language

一种语言模型,其概率仅基于目标 token 之前而非之后的 token。双向语言模型相对。

无标签样本

#fundamentals

包含特征但不包含标签的示例。 例如,下表显示了房屋估值模型中的三个未标记示例,每个示例都包含三个特征,但没有房屋价值:

卧室数量 浴室数量 房屋年龄
3 2 15
2 1 72
4 2 34

监督式机器学习中,模型基于带标签的样本进行训练,并基于无标签的样本进行预测。

半监督式非监督式学习中,在训练期间会使用无标签样本。

将无标签示例与有标签示例进行对比。

非监督式机器学习

#clustering
#fundamentals

训练模型,以找出数据集(通常是无标签数据集)内的规律。

非监督式机器学习最常见的用途是将数据聚类为不同的组,使相似的样本位于同一组中。例如,无监督机器学习算法可以根据音乐的各种属性对歌曲进行聚类。生成的聚类可以作为其他机器学习算法(例如音乐推荐服务)的输入。当有用的标签很少或没有时,聚类会有所帮助。 例如,在反滥用和反欺诈等领域,聚类有助于人们更好地了解数据。

监督式机器学习相对。

如需了解详情,请参阅“机器学习简介”课程中的什么是机器学习?

升幅建模

一种常用于营销领域的建模技术,用于对“处理”对“个体”的“因果效应”(也称为“增量影响”)进行建模。以下是两个示例:

  • 医生可能会使用升力模型来预测某项医疗程序(处理)的死亡率降幅(因果效应),具体取决于患者(个体)的年龄和病史。
  • 营销者可能会使用升幅建模来预测广告(处理)对个人购买概率(因果效应)的提升。

升举建模与分类回归的不同之处在于,在升举建模中,某些标签(例如,二元处理中的一半标签)始终缺失。例如,患者要么接受治疗,要么不接受治疗;因此,我们只能在其中一种情况下观察患者是否会痊愈(但绝不会同时在两种情况下观察)。升幅模型的主要优势在于,它可以针对未观测到的情况(反事实)生成预测,并使用该预测来计算因果效应。

权重上调

降采样的类别应用一个权重,该权重等于降采样所依据的因子。

用户矩阵

#recsystems

推荐系统中,嵌入向量矩阵分解生成,其中包含有关用户偏好的潜在信号。 用户矩阵的每一行都包含关于单个用户的各种潜在信号的相对强度的信息。以电影推荐系统为例。在该系统中,用户矩阵中的潜在信号可能表示每个用户对特定类型的兴趣,也可能是更难以解读的信号,其中涉及多个因素之间的复杂互动关系。

用户矩阵包含的列和行分别对应每个潜在特征和每位用户。也就是说,用户矩阵与要进行分解的目标矩阵具有相同的行数。例如,假设某个影片推荐系统要为 100 万名用户推荐影片,则用户矩阵有 100 万行。

V

验证

#fundamentals

对模型质量的初步评估。 验证会根据验证集检查模型预测的质量。

由于验证集与训练集不同,因此验证有助于防范过拟合

您可以将根据验证集评估模型视为第一轮测试,将根据测试集评估模型视为第二轮测试。

验证损失

#fundamentals
#Metric

一种指标,表示模型在训练的特定迭代期间,在验证集上的损失

另请参阅泛化曲线

验证集

#fundamentals

数据集的子集,用于针对经过训练的模型执行初始评估。通常,在针对测试集评估模型之前,您会先针对验证集评估经过训练的模型多次。

传统上,您需要将数据集中的示例划分为以下三个不同的子集:

理想情况下,数据集中的每个示例都应仅属于上述子集之一。例如,单个示例不应同时属于训练集和验证集。

如需了解详情,请参阅机器学习速成课程中的数据集:划分原始数据集

价值插补

用可接受的替代值替换缺失值的过程。 如果缺少某个值,您可以舍弃整个示例,也可以使用值插补来挽救该示例。

例如,假设有一个数据集包含一个本应每小时记录一次的 temperature 特征。不过,在某个特定时间,温度读数不可用。以下是数据集的一部分:

时间戳 温度
1680561000 10
1680564600 12
1680568200 缺失
1680571800 20
1680575400 21
1680579000 21

系统可以删除缺失的示例,也可以根据插补算法将缺失的温度插补为 12、16、18 或 20。

梯度消失问题

#seq

某些深度神经网络的早期隐藏层的梯度变得出乎意料地平缓(低)的趋势。梯度越小,深度神经网络中节点上的权重变化就越小,从而导致学习效果不佳或根本无法学习。如果模型受到梯度消失问题的困扰,则很难或无法进行训练。 长短期记忆单元可以解决此问题。

梯度爆炸问题相对。

变量重要性

#df
#Metric

一组分数,用于指示每个特征对模型的相对重要性。

例如,假设有一个用于估算房价的决策树。假设此决策树使用三个特征:尺寸、年龄和款式。如果计算出的三个特征的一组变量重要性为 {size=5.8, age=2.5, style=4.7},则对于决策树而言,size 比 age 或 style 更重要。

存在不同的变量重要性指标,可让机器学习专家了解模型的不同方面。

变分自编码器 (VAE)

#language

一种利用输入与输出之间的差异来生成输入修改版本的自动编码器。变分自编码器非常适合用于生成式 AI

VAE 基于变分推理,这是一种用于估计概率模型参数的技术。

vector

一个多含义术语,在不同的数学和科学领域中有着不同的含义。在机器学习中,向量具有两个属性:

  • 数据类型:机器学习中的向量通常包含浮点数。
  • 元素数量:这是向量的长度或维度

例如,假设有一个包含 8 个浮点数的特征向量。此特征向量的长度或维度为 8。 请注意,机器学习向量通常具有大量维度。

您可以将多种不同类型的信息表示为向量。例如:

  • 地球表面上的任何位置都可以表示为二维向量,其中一个维度是纬度,另一个维度是经度。
  • 500 种股票的当前价格可以表示为一个 500 维的向量。
  • 有限数量的类别的概率分布可以表示为一个向量。例如,一个预测三种输出颜色(红色、绿色或黄色)之一的多类别分类系统可以输出向量 (0.3, 0.2, 0.5),表示 P[red]=0.3, P[green]=0.2, P[yellow]=0.5

向量可以串联,因此各种不同的媒体都可以表示为单个向量。有些模型直接对许多独热编码的串联进行操作。

TPU 等专用处理器经过优化,可对向量执行数学运算。

向量是为 1 的张量

Vertex

#GoogleCloud
#generativeAI
Google Cloud 的 AI 和机器学习平台。Vertex 提供用于构建、部署和管理 AI 应用的工具和基础设施,包括对 Gemini 模型的访问权限。

W

Wasserstein 损失

#Metric

一种常用于生成对抗网络的损失函数,基于生成数据分布与真实数据分布之间的推土机距离

重量

#fundamentals

模型乘以另一个值的值。 训练是确定模型理想权重的过程;推理是使用这些学习到的权重进行预测的过程。

如需了解详情,请参阅机器学习速成课程中的线性回归

加权交替最小二乘 (WALS)

#recsystems

一种用于在推荐系统中进行矩阵分解时最小化目标函数的算法,以便对缺失的示例进行权重下调。WALS 交替修复行分解和列分解,以尽可能减小原始矩阵和重构矩阵之间的加权平方误差。 这些优化皆可通过最小二乘凸优化实现。如需了解详情,请参阅推荐系统课程

加权和

#fundamentals

所有相关输入值与其对应权重的乘积之和。例如,假设相关输入包含以下内容:

输入值 输入权重
2 -1.3
-1 0.6
3 0.4

因此,加权和为:

weighted sum = (2)(-1.3) + (-1)(0.6) + (3)(0.4) = -2.0

加权和是激活函数的输入实参。

宽度模型

一种线性模型,通常有很多稀疏输入特征。我们之所以称之为“宽度模型”,是因为这是一种特殊类型的神经网络,其大量输入均直接与输出节点相连。与深度模型相比,宽度模型通常更易于调试和检查。虽然宽模型无法通过隐藏层来表达非线性关系,但宽模型可以使用特征交叉分桶等转换以不同的方式为非线性关系建模。

深度模型相对。

width

神经网络中特定神经元数量。

群体的智慧

#df

一种理论,认为对一大群人(“大众”)的意见或估计值求平均值通常会产生出人意料的好结果。例如,假设有一款游戏,玩家需要猜测一个大罐子里装了多少颗软糖。虽然大多数个人猜测都不准确,但经验表明,所有猜测的平均值与罐中实际的糖豆数量非常接近。

集成是“群体的智慧”的软件类比。 即使单个模型的预测结果非常不准确,但对多个模型的预测结果求平均值通常会生成出人意料的良好预测结果。例如,虽然单个决策树的预测效果可能不佳,但决策森林的预测效果通常非常好。

词嵌入

#language

以嵌入向量表示字词集中的每个字词;也就是说,将每个字词表示为介于 0.0 和 1.0 之间的浮点值向量。与含义不同的字词相比,含义相似的字词具有更相似的表示形式。例如,胡萝卜芹菜黄瓜的表示形式相对相似,与飞机太阳镜牙膏的表示形式截然不同。

X

XLA(加速线性代数)

一款适用于 GPU、CPU 和 ML 加速器的开源机器学习编译器。

XLA 编译器可获取 PyTorchTensorFlowJAX 等热门机器学习框架中的模型,并针对 GPU、CPU 和机器学习加速器等不同硬件平台优化这些模型,以实现高性能执行。

Z

零样本学习

一种机器学习训练类型,其中模型会针对未专门训练过的任务推断预测结果。换句话说,模型没有接受任何特定任务的训练示例,但需要针对该任务进行推理

零样本提示

#language
#generativeAI

提示提供您希望大语言模型如何回答的示例。例如:

一个提示的组成部分 备注
指定国家/地区的官方货币是什么? 您希望 LLM 回答的问题。
印度 实际查询。

大语言模型可能会回答以下任何内容:

  • 卢比符号
  • INR
  • 印度卢比
  • 卢比
  • 印度卢比

所有答案都是正确的,不过您可能更喜欢某种特定格式。

零样本提示与以下术语进行比较和对比:

Z 分数归一化

#fundamentals

一种缩放技术,用于将原始特征值替换为表示该特征与平均值之间相差的标准差数量的浮点值。例如,假设某个特征的平均值为 800,标准差为 100。下表显示了 Z-score 归一化如何将原始值映射到其 Z-score:

原始值 Z 分数
800 0
950 +1.5
575 -2.25

然后,机器学习模型会根据相应特征的 Z 得分进行训练,而不是根据原始值进行训练。

如需了解详情,请参阅机器学习速成课程中的数值数据:归一化

本术语表定义了机器学习术语。

A