机器学习复习¶
基本术语和模型评估¶
术语¶
- 特征:输入数据的属性
- 属性值:特征的离散取值
- 样本维度:特征的数量
- 属性空间/特征空间/输入空间:特征张成的空间
- 标记空间/输出空间:标记张成的空间
- 示例(instance)/样本(sample):一个对象的输入,不含标记
- 样例(example):一个对象的输入和输出
- 训练集(training set):训练样例的集合
- 测试集(test set):测试样例的集合
- 任务:
- 根据标记的取值划分:
- 分类(classification):标记空间是有限个离散值的情况
- 回归(regression):标记空间是连续值的情况
- 聚类(clustering):无标记,将样本划分为若干组
- 根据标记的完整性划分:
- 监督学习(supervised learning):训练集有标记
- 无监督学习(unsupervised learning):训练集无标记
- 半监督学习(semi-supervised learning):训练集有部分标记
- 噪声标记(noise label):训练集中的标记可能有误
- 根据标记的取值划分:
- 目标:泛化能力
概念学习¶
最理想的机器学习技术是学习到概念。
- 假设空间:设第
个属性的取值有 种,则假设空间大小为 。获得与训练集一致(即对所有训练样本 能够进行正确判断)的假设 - 版本空间:与训练集一致的假设集合。
- 归纳偏好:面临新样本时,不同假设可能会产生不同的输出。算法对某些假设的偏好称为归纳偏好。
- No Free Lunch Theorem:没有一个算法能够在所有问题上表现最好。
模型评估与选择¶
- 错误率:分类错误的样本数占总样本数的比例
- 误差:样本真实输出与模型输出之间的差异
-
过拟合:将训练样本的特点当作所有样本的一般性质,泛化性能差。
解决方法:优化目标函数加入正则项,early stop
-
欠拟合:模型过于简单,对一般性质的学习不足。
解决方法:扩展分支(决策树),增加层数、训练轮数(神经网络)
评估方法:
- 留出法(hold-out):将数据集划分为训练集和测试集。尽可能保证训练集和测试集的分布一致(分层采样),重复多次取平均值。
-
交叉验证法(cross validation):将数据集分层采样划分为
个子集,每次用 个子集训练,剩下的子集测试,重复 次取平均值。 最常用的取值是 10,称为 10 折交叉验证。随机使用不同的划分重复 次取平均值,称为 次 折交叉验证。 -
留一法(LOO):令交叉验证法中
等于样本数,则为留一法。优点:不受随机样本划分方式影响,结果往往比较准确。
缺点:计算开销大。
-
自助法(bootstrap):对于大小为
的数据集,每次从中随机采样一个样本,放回,重复 次,得到大小为 的训练集。剩下的样本作为测试集。一般用于数据集较小的情况。 - 参数调优
性能度量¶
衡量模型泛化能力的指标。
-
均方误差(mean squared error):
对于数据分布
和概率密度函数 ,均方误差为: -
错误率(error rate):
分类错误率:
-
精度(accuracy):
混淆矩阵¶
列为预测结果,行为真实结果:
预测正例 | 预测反例 | |
---|---|---|
真实正例 | TP | FN |
真实反例 | FP | TN |
-
查准率(precision):
-
查全率(recall):
-
P-R 曲线:横轴为查全率(R),纵轴为查准率(P)。若一个学习器的 P-R 曲线被另一个学习器的曲线完全"包住",则可断言后者的性能优于前者。
- 平衡点(break-even point BEP):P-R 曲线上查准率等于查全率的点。可以基于平衡点来比较不同学习器的性能。
-
F1 度量:
实际上是调和平均数:
-
度量:当
时, 退化为 。实际上是 和 的加权调和平均数:
多个混淆矩阵:
先分别计算查准率和查全率:
-
宏查准率(macro-precision):
-
宏查全率(macro-recall):
-
宏
度量:
计算混淆矩阵的平均值,再计算查准率和查全率:
-
微查准率(micro-precision):
-
微查全率(micro-recall):
-
微
度量:
ROC 与 AUC¶
根据学习器输出的实数值对样例进行排序,按此顺序逐个把样本作为正例进行预测,每次计算出假正例率(FPR)和真正例率(TPR):
-
真正例率(TPR):
-
假正例率(FPR):
以 FPR 为横轴,TPR 为纵轴作图,得到 ROC 曲线。
若一个学习器的 ROC 曲线被另一个学习器的曲线完全"包住",则可断言后者的性能优于前者。若两个学习器的 ROC 曲线发生交叉,则可以通过比较 ROC 曲线下的面积(AUC)来判断性能:
AUC 考虑的是样本预测的排序质量。
代价敏感错误率¶
权衡不同类型错误所造成的不同损失,可为错误赋予“非均等代价”(unequal cost)。
真实类别为
二项检验¶
设泛化错误率为
若测试错误率小于
则在
T 检验¶
多次重复留出法或交叉验证法等进行多次训练/测试,会得到
变量
服从自由度为
交叉验证 T 检验¶
对两个学习器 A 和 B ,若使用 k 折交叉验证法得到的测试错误率分别为
基本思路是计算出
线性模型¶
一般形式:
优点:形式简单、易于建模;可解释性强。
Perceptron 感知机¶
线性模型中,若误分类,则有:
定义损失函数
梯度:
线性回归¶
目标:
最小二乘法:
解析解:
广义线性模型¶
一般形式:
其中
对数几率回归¶
二分类任务中,输出标记
-
单位阶跃函数(step function):
当
时,可以任意判别为 0 或 1。 -
对数几率函数(logistic function):
单位阶跃函数不连续,不能用作
。对数几率函数为单位阶跃函数的连续近似:
把对数几率函数代入广义线性模型,得到对数几率回归模型:
变换为:
将
取对数则为对数几率(log odds)
极大似然估计¶
对数几率为:
有
通过极大似然法来估计
即令每个样本属于其真实标记的概率越大越好。
令
即最小化负对数似然函数:
求解
使用牛顿法求解
线性判别分析¶
线性判别分析(Linear Discriminant Analysis, LDA)。监督降维技术。使同类样本的投影点尽可能接近,不同类样本的投影点尽可能远离。
- 同类样本协方差小
- 异类样本类中心距离大
定义:
- 第
类样本集合: - 第
类样本均值: - 第
类样本协方差矩阵: - 直线方向向量:
- 样本中心在直线上的投影:
- 协方差:
最大化目标(广义瑞利熵):
类内散度矩阵:
类间散度矩阵:
广义瑞利熵:
令
由拉格朗日乘子法,上式等价于
令
将
多分类任务¶
拆分为多个二分类任务:
-
一对一(one-vs-one):
类样本两两配对,训练 个分类器,对于每个样本,每个分类器投票,最终投票最多的类别为预测类别。优点:每个分类器只需关注两个类别,训练速度快。
缺点:分类器数量多,测试速度慢。
-
一对其余(one-vs-rest):某一类别为正例,其余类别为反例,训练
个分类器,对于每个样本,每个分类器输出正例的概率,最终概率最大的类别为预测类别。优点:分类器数量少,存储开销小,测试速度快。
缺点:训练用到全部数据,训练速度慢。
-
多对多(many-vs-many):若干类别为正例,若干类别为反例,训练若干个分类器,对于每个样本,每个分类器投票,最终投票最多的类别为预测类别。
纠错输出码¶
- 编码:对
个类别进行 次划分,得到 个分类器。 - 解码:
个分类器分别对测试样本进行预测,组成一个 位的编码,将这个预测编码与每个类别各自的编码进行比较,返回其中距离最小的类别作为最终预测结果。

- 海明距离:两个编码之间不同的位数。
- 欧式距离:
类别不平衡问题¶
不同类别的样本数量差异较大。
解决方法:转换为类别平衡问题。
再缩放方法:
- 欠采样:去除一些反例使得正例和反例数量接近。
- 过采样:增加一些正例使得正例和反例数量接近。
- 阈值移动:调整分类器的输出阈值。
决策树¶
决策树基于树结构进行预测。

终止情况:
- 当前结点包含的样本全属于同一类别。
- 当前结点包含的样本为空。结点类别设定为其父结点包含样本最多的类别。
- 当前结点包含样本的剩余特征的取值相同。结点类别设定为包含样本最多的类别。
划分选择¶
ID3 决策树¶
设当前样本集合中第
信息熵越小,样本的纯度越高。
使用属性
其中
信息增益越大,使用属性
C4.5 决策树¶
增益率:
其中 IV 为属性
相当于对信息增益进行了归一化。C4.5 算法使用增益率选择划分属性。
C4.5 决策树:先找出信息增益高于平均水平的属性,再从中选择增益率最高的属性进行划分。
CART 决策树¶
数据集
基尼值越小,样本的纯度越高。
选择属性
CART 算法使用基尼指数选择划分属性,选择基尼指数最小的属性进行划分。
连续与缺失值¶
连续属性¶
使用二分法进行划分。对于连续值
选择最优的划分点进行划分。即
剪枝¶
决策树容易过拟合,剪枝是防止过拟合的重要手段。
预剪枝¶
边建树边剪枝。若当前结点进行划分不能带来泛化能力的提升,则停止划分,将当前结点标记为叶结点。
预留验证集,分别计算划分前后的验证集精度,判断是否进行划分。
- 优点:降低过拟合风险,提高泛化能力。减少训练和测试时间。
- 缺点:可能会导致欠拟合。
后剪枝¶
先建树再剪枝。自底向上对非叶结点进行考察,若将其划分为叶结点能带来泛化能力的提升,则将其划分为叶结点。
- 优点:保留了更多分支,欠拟合风险较小。
- 缺点:训练时间较长,需要生成完整的决策树。
神经网络¶
神经元模型¶
MP 神经元¶
- 输入:
- 权重:
- 阈值:
- 激活函数:
- 输出:
激活函数¶
-
阶跃函数(step function):
-
Sigmoid 函数:
-
ReLU 函数:
-
Tanh 函数:
感知机与多层网络¶
感知机¶
感知机由两层神经元组成,输入层接收输入信号,输出层进行输出(MP 神经元)。
感知机学习¶
学习权重
其中
若两类模式线性可分, 则感知机的学习过程一定会收敛。
单层感知机只能解决线性可分问题。
多层感知机¶
加入隐藏层,可以解决非线性可分问题。
多层前馈神经网络¶
每层神经元与下一层神经元全连接,信息单向传播。
误差逆传播算法¶
训练权重、阈值。
只需要一个包含足够多神经元的隐藏层,就可以以任意精度逼近任意连续函数。
缓解过拟合:
- 早停法:若训练误差降低,但验证误差升高,则停止训练。
- 正则化:在误差函数中加入权重衰减项。
交叉熵损失函数¶
对于样本
局部最小与全局最小¶
跳出局部最小:
- 多组不同初始化参数优化神经网络,选择最优参数。
- 模拟退火
- 随机梯度下降
- 遗传算法
深度学习¶
很深层的神经网络。
支持向量机¶
间隔和支持向量:

- 超平面:
。 - 间隔:两个异类支持向量到超平面的距离之和
。
寻找参数
等价于
上式为支持向量机的基本型。
对偶问题¶
使用拉格朗日乘子法,得到拉格朗日函数:
令偏导数为 0,得到对偶问题:
求解得到
KKT 条件:
当
SMO¶
序列最小最优化算法(Sequential Minimal Optimization, SMO)。每次选择两个变量进行优化,固定其他变量。
设对
求解对偶形式,更新
令
带入目标函数,得到单变量二次规划问题,解得
根据每个支持向量计算出
核函数¶
若数据线性不可分,可使用核函数将数据映射到高维空间,再在高维空间中寻找最优超平面。
将
软间隔与正则化¶
允许一些样本不满足约束条件。使用 0/1 损失函数:
则优化目标变为
然而 0/1 损失函数非凸,不连续,不可导,不易优化。使用 Hinge 损失函数进行替代:
当
转换为对偶问题:
正则化:更一般的形式为
其中
支持向量回归¶
允许模型输出和实际输出之间存在
落入间隔带的样本不计算损失
贝叶斯分类器¶
贝叶斯决策论¶
类别标记
后验概率
任务是寻找一个判定准则
贝叶斯判定准则:对于每个样本
若目标是最小化分类错误率,则损失为
则期望损失为
则最优分类器为
获取后验概率
- 判别式模型:对
建模 -
生成式模型:先对联合概率分布
建模,再由此得到其中
为类别先验概率 为类条件概率,称为似然 为证据因子
极大似然估计¶
先假设具有某种概率分布,被参数
将
代表取得
最大化对数似然,得到参数估计
朴素贝叶斯分类器¶
假设每个属性独立地对分类结果产生影响,即
则朴素贝叶斯分类器为
类先验概率
令
过程:
- 计算类先验概率
- 计算类条件概率
- 计算使得
最大的类别 作为预测类别
平滑:使用拉普拉斯修正,避免概率为 0。
令
半朴素贝叶斯分类器¶
适当考虑一部分属性问的相互依赖信息。
独依赖估计:假设每个属性在类别之外最多仅依赖于一个其他属性。
贝叶斯网¶
贝叶斯网是一个有向无环图,结点表示随机变量,边表示变量之间的依赖关系。使用条件概率表描述结点之间的依赖关系。
EM 算法¶
存在隐变量的情况下,使用 EM 算法进行参数估计。
令
通过对
EM 算法:
- E 步:已知参数
,计算对数似然关于隐变量 的期望 - M 步:已知
,寻找参数 使得对数似然期望最大化
集成学习¶
集成学习(ensemble learning)通过构建并结合多个学习器来提升性能。
聚类¶
性能度量¶
- 外部指标:与某个“参考模型”进行比较
- 内部指标:不依赖于任何参考模型
目标:簇内相似度高,簇间相似度低。
距离计算¶
闵可夫斯基距离:
为曼哈顿距离 为欧氏距离
聚类方法¶
- 原型聚类:有簇中心的聚类。K 均值聚类。
- 密度聚类:从样本密度的角度来考察样本之间的可连接性。DBSCAN 算法。
- 层次聚类:自底向上或自顶向下的聚类方法。AGNES 算法。
K 均值聚类¶
簇中心为簇内样本的均值。
降维与度量学习¶
k 近邻学习 k-NN¶
给定测试样本,基于某种距离度量找出训练集中与其最靠近的
最近邻分类器,1-NN 分类器,出错的概率
其中
最近邻分类器的泛化误差不超过贝叶斯最优分类器的误差的两倍。
低维嵌入¶
将高维数据映射到低维空间,保留数据的主要结构。
目标:保持数据之间的相对距离。
多维缩放(MDS):最小化原始数据点之间的距离与嵌入数据点之间的距离之间的差异。思路:保持内积不变。
主成分分析 PCA¶
给定
其中
PCA 的优化目标:
对
流形学习¶
- 构造近邻图
- 使用最短路算法近似两点之间的测地线距离
- 基于距离矩阵使用 MDS 算法进行降维
度量学习¶
通过参数化学习距离度量。
马氏距离:
其中
特征选择与稀疏学习¶
特征的分类:
- 相关特征:对当前学习任务有用的特征
- 无关特征:对当前学习任务无用的特征
- 冗余特征:与其他特征线性相关的特征
特征选择¶
确保不丢失重要特征。
方法:
- 产生初始候选子集
- 评价候选子集的好坏
- 根据结果产生新的候选子集,重复 2
子集搜索¶
用贪心策略选择包含重要信息的特征子集。
- 前向搜索:逐步增加特征
- 后向搜索:逐步减少特征
- 双向搜索:每一轮逐渐增加相关特征,同时减少无关特征
子集评价¶
比较特征子集对应的划分与样本标记对应的划分的差异。
方法:信息熵
特征选择方法¶
- 过滤式(filter)
- 包裹式(wrapper)
- 嵌入式(embedded)
过滤式特征选择¶
先对数据集进行特征选择,然后再训练学习器,特征选择过程与学习器无关。
Relief 算法:对每个样本,先在同类样本中找出最近邻,再在异类样本中找出最近邻,计算特征的权重。
包裹式特征选择¶
把最终将要使用的学习器的性能作为特征子集的评价准则。
需多次训练学习器,因此包裹式特征选择的计算开销通常比较大。
LVM 算法:使用随机策略进行子集搜索,将最终分类器的误差作为特征子集的评价准则。
嵌入式特征选择¶
将特征选择过程与学习器训练过程融为一体,两者在同一个优化过程中完成。
若最优化问题为
使用嵌入式特征选择,加入正则项
引入
正则化:岭回归 正则化:LASSO,更易于获得稀疏解
稀疏表示¶
将数据集考虑成一个矩阵,每行对应一个样本,每列对应一个特征。考虑每一行有很多 0 元素。
字典学习¶
为普通稠密表达的样本找到合适的字典,将样本转化为稀疏表示,这一过程称为字典学习。
压缩感知¶
利用接收到的压缩、丢包后的数字信号,精确重构出原信号。
半监督学习¶
未标记样本¶
- 聚类假设:假设数据存在簇结构,同一个簇的样本属于同一个类别。
- 流形假设:假设数据分布在一个流形结构上,邻近的样本拥有相似的输出值。
半监督学习分类:
- 纯半监督学习:假定训练数据中的未标记样本并非待预测的数据。
- 直推学习:假定学习过程中所考虑的未标记样本恰是待预测数据,学习的目的就是在这些未标记样本上获得最优泛化性能。
生成式方法¶
假设所有数据(无论是否标记)都是由一个模型生成的。未标记数据的标记可以看作模型的参数。
半监督 SVM¶
半监督 SVM (S3VM):找到能将两类有标记样本分开且穿过数据低密度区域的超平面。
TSVM 算法:考虑对未标记样本进行各种可能的样本指派,寻找一个在所有样本上间隔最大化的划分超平面。
图半监督学习¶
样本对应结点,边的强度正比于样本之间的相似度。
将已标记的样本视作染过色,半监督学习就对应于颜色的传播。
基于分歧的方法¶
使用多学习器,利用不同学习器之间的分歧。
多视图数据:一个数据对象往往同时拥有多个"属性集" (attribute set) ,每个属性集就构成了一个“视图”(view)。
训练步骤:
- 在每个视图上基于有标记样本分别训练出一个分类器
- 让每个分类器分别去挑选自己"最有把握的"未标记样本赋予伪标记,并将伪标记样本提供给另一个分类器作为新增的有标记样本用于训练更新
- 重复上述过程直到收敛
半监督聚类¶
- 必连约束:两个样本必属于同一个簇
- 勿连约束:两个样本必不属于同一个簇
概率图模型¶
规则学习¶
强化学习¶
马尔可夫决策过程(Markov Decision Process, MDP):机器通过在环境中不断尝试从而学到一个策略,使得长期执行该策略后得到的累积奖赏最大。
没有有标记样本,通过执行动作之后反馈的奖赏来学习。强化学习在某种意义上可以认为是具有“延迟标记信息”的监督学习。