机器学习算法

优质
小牛编辑
163浏览
2023-12-01

Index

基本遵从《统计学习方法》一书中的符号表示。

除特别说明,默认w为行向量,x为列向量,以避免在wx 中使用转置符号;但有些公式为了更清晰区分向量与标量,依然会使用^T的上标,注意区分。

输入实例x的特征向量记为:

注意:x_ix^(i) 含义不同,前者表示训练集中第 i 个实例,后者表示特征向量中的第 i 个分量;因此,通常记训练集为:

特征向量用小n表示维数,训练集用大N表示个数

公式说明

所有公式都可以点击跳转至编辑页面,但是部分公式符号会与超链接中的转义冲突;如果编辑页面的公式与本页面中的不同,可以打开源文件,通过原链接打开。

《深度学习》 3.13 信息论

  • 信息论的基本想法是:一件不太可能的事发生,要比一件非常可能的事发生,提供更多的信息。
  • 该想法可描述为以下性质:
  1. 非常可能发生的事件信息量要比较少,并且极端情况下,一定能够发生的事件应该没有信息量。
  2. 比较不可能发生的事件具有更大的信息量。
  3. 独立事件应具有增量的信息。例如,投掷的硬币两次正面朝上传递的信息量,应该是投掷一次硬币正面朝上的信息量的两倍。

信息熵 与 自信息

  • 自信息(self-information)是一种量化以上性质的函数,定义一个事件x的自信息为:

    当该对数的底数为自然对数 e 时,单位为奈特(nats);当以 2 为底数时,单位为比特(bit)或香农(shannons)

  • 自信息只处理单个的输出。

  • 信息熵(Information-entropy)用于对整个概率分布中的不确定性总量进行量化:

    信息论中,记 0log0 = 0

交叉熵 与 相对熵/KL散度

  • 定义 P 对 QKL 散度(Kullback-Leibler divergence):

KL 散度在信息论中度量的是哪个直观量?

  • 在离散型变量的情况下, KL 散度衡量的是:当我们使用一种被设计成能够使得概率分布 Q 产生的消息的长度最小的编码,发送包含由概率分布 P 产生的符号的消息时,所需要的额外信息量。

KL散度的性质

  • 非负;KL 散度为 0 当且仅当P 和 Q 在离散型变量的情况下是相同的分布,或者在连续型变量的情况下是“几乎处处”相同的
  • 不对称;D_p(q) != D_q(p)

交叉熵(cross-entropy):

信息量,信息熵,交叉熵,KL散度和互信息(信息增益) - CSDN博客

交叉熵 与 KL 散度的关系

  • 针对 Q 最小化交叉熵等价于最小化 P 对 Q 的 KL 散度,因为 Q 并不参与被省略的那一项。

  • 最大似然估计中,最小化 KL 散度其实就是在最小化分布之间的交叉熵。

    《深度学习》 ch5.5 - 最大似然估计

逻辑斯蒂回归模型定义

  • 二项逻辑斯蒂回归模型即如下的条件概率分布

    简洁起见,省略了偏置 b;也可以看做将偏置扩充到了权重中

    其中

  • 通常会将以上两个分布记作:

《统计学习方法》 6.1 逻辑斯蒂回归模型

原书中记作 π(x)1-π(x),这里为了跟神经网络中统一,使用 σ

逻辑斯蒂回归推导

逻辑回归推导 - 罐装可乐 - 博客园

  • 推导的关键点 (3)
  1. 逻辑斯蒂回归的定义
  2. 损失函数(极大似然)
  3. 参数优化(梯度下降)
  • 给定训练集 T={(x1,y1),..,(xN,yN)},其中 x ∈ R^n, y ∈ {0, 1}
  1. 逻辑斯蒂回归的定义:

  2. 负对数函数作为损失函数:

    \&space;&=-\sum_{i=1}^N&space;\left&space;[&space;y_i\log\sigma(x_i)+(1-y_i)\log(1-\sigma(xi))&space;\right&space;]\&space;&=-\sum{i=1}^N&space;\left&space;[&space;y_i\log\frac{\sigma(x_i)}{1-\sigma(x_i)}+\log(1-\sigma(x_i))&space;\right&space;]&space;\end{aligned})

    进一步代入 σ(x) 有:

    &space;\right&space;]&space;\end{aligned})

  3. 求梯度

  4. 使用梯度下降法求解参数

    深度学习/梯度下降法

多分类逻辑斯蒂回归模型 TODO

  • Y ∈ {1,2,..K},则多项式逻辑斯蒂回归模型为:

  • 类似 Softmax

支持向量机简述

  • 支持向量机(Support Vector Machines, SVM)是一种二分类模型。它的基本模型是定义在特征空间上的间隔最大的线性分类器,间隔最大使它有别于感知机;支持向量机还包括核技巧,这使其成为实质上的非线性分类器。
  • SVM 的学习策略就是间隔最大化,可形式化为一个求解凸二次规划的问题,也等价于正则化的合页损失函数的最小化问题。
  • SVM 的最优化算法是求解凸二次规划的最优化算法。

什么是支持向量

  • 训练数据集中与分离超平面距离最近的样本点的实例称为支持向量
  • 更通俗的解释:
    • 数据集种的某些点,位置比较特殊。比如 x+y-2=0 这条直线,假设出现在直线上方的样本记为 A 类,下方的记为 B 类。
    • 在寻找找这条直线的时候,一般只需看两类数据,它们各自最靠近划分直线的那些点,而其他的点起不了决定作用。
    • 这些点就是所谓的“支持点”,在数学中,这些点称为向量,所以更正式的名称为“支持向量”。

      SVM中支持向量的通俗解释 - CSDN博客

支持向量机的分类

  • 线性可分支持向量机
    • 当训练数据线性可分时,通过硬间隔最大化,学习一个线性分类器,即线性可分支持向量机,又称硬间隔支持向量机
  • 线性支持向量机
    • 当训练数据接近线性可分时,通过软间隔最大化,学习一个线性分类器,即线性支持向量机,又称软间隔支持向量机
  • 非线性支持向量机
    • 当训练数据线性不可分时,通过使用核技巧及软间隔最大化,学习非线性支持向量机。

核函数与核技巧

  • 核函数表示将输入从输入空间映射到特征空间后得到的特征向量之间的内积

最大间隔超平面背后的原理

机器学习技法 (1-5) - 林轩田

  • 相当于在最小化权重时对训练误差进行了约束——对比 L2 范数正则化,则是在最小化训练误差时,对权重进行约束

与 L2 正则化的区别

  • 相当于限制了模型复杂度——在一定程度上防止过拟合,具有更强的泛化能力

支持向量机推导

  • SVM 由简至繁包括:线性可分支持向量机线性支持向量机以及非线性支持向量机

线性可分支持向量机推导

《统计学习方法》 & 支持向量机SVM推导及求解过程 - CSDN博客

  • 当训练数据线性可分时,通过硬间隔最大化,学习一个线性分类器,即线性可分支持向量机,又称硬间隔支持向量机
  • 线性 SVM 的推导分为两部分
  1. 如何根据间隔最大化的目标导出 SVM 的标准问题
  2. 拉格朗日乘子法对偶问题的求解过程.

符号定义

  • 训练集 T

  • 分离超平面 (w,b)

    如果使用映射函数,那么分离超平面为

    映射函数 Φ(x) 定义了从输入空间到特征空间的变换,特征空间通常是更高维的,甚至无穷维;方便起见,这里假设 Φ(x) 做的是恒等变换。

  • 分类决策函数 f(x)

SVM 标准问题的推导(2)

  1. 从“函数间隔”到“几何间隔”

    给定训练集T和超平面(w,b),定义函数间隔γ^

    w 作规范化,使函数间隔成为几何间隔γ

  2. 最大化几何间隔

    由函数间隔与几何间隔的关系,等价于

    函数间隔γ^的取值不会影响最终的超平面(w,b):取γ^=1;又最大化 1/||w|| 等价于最小化1/2*||w||^2,于是有

    为什么令γ^=1?——比例改变(ω,b),超平面不会改变,但函数间隔γ^会成比例改变,因此可以通过等比例改变(ω,b)使函数间隔γ^=1

  • 该约束最优化问题即为线性支持向量机的标准问题——这是一个凸二次优化问题,可以使用商业 QP 代码完成。

    理论上,线性 SVM 的问题已经解决了;但在高等数学中,带约束的最优化问题还可以用另一种方法求解——拉格朗日乘子法。该方法的优点一是更容易求解,而是自然引入核函数,进而推广到非线性的情况。

SVM 对偶算法的推导(5)

  1. 构建拉格朗日函数

  2. 标准问题是求极小极大问题:

    其对偶问题为:

  3. L(w,b) 的极小

    结果代入L,有:

  4. Lα 的极大,即

    该问题的对偶问题为:

    于是,标准问题最后等价于求解该对偶问题

    继续求解该优化问题,有 SMO 方法;因为《统计学习方法》也只讨论到这里,故推导也止于此

  5. α 的解为 α*,则存在下标j使α_j > 0,可得标准问题的解为:

    可得分离超平面及分类决策函数为:

  • 决策树的训练通常由三部分组成:特征选择树的生成剪枝

信息增益与信息增益比 TODO

分类树 - ID3 决策树与 C4.5 决策树 TODO

  • ID3 决策树和 C4.5 决策树的区别在于:前者使用信息增益来进行特征选择,而后者使用信息增益比

决策树如何避免过拟合 TODO

回归树 - CART 决策树

《统计学习方法》 5.5 CART 算法

  • CART 算法是在给定输入随机变量 X 条件下输出随机变量 Y条件概率分布的学习方法。
  • CART 算法假设决策树是二叉树,内部节点特征的取值为“”和“”。

这样的决策树等价于递归地二分每个特征,将输入空间/特征空间划分为有限个单元,然后在这些单元上确定在输入给定的条件下输出的条件概率分布

  • CART 决策树既可以用于分类,也可以用于回归

    对回归树 CART 算法用平方误差最小化准则来选择特征,对分类树用基尼指数最小化准则选择特征

CART 回归树算法推导

  • 一个回归树对应着输入空间/特征空间的一个划分以及在划分单元上的输出值

  • 假设已将输入空间划分为 M 个单元:{R_1,..,R_m,..,R_M},并在每个单元上对应有输出值 c_m,则该回归树可表示为

    I(x) 为指示函数

  • 如果已经划分好了输入空间,通常使用平方误差作为损失函数来表示回归树对于训练数据的预测误差,通过最小化损失函数来求解每个划分单元的最优输出值

  • 如果使用平方误差,易知最优输出值即每个划分单元上所有实例的均值

    选用平方误差作为损失的原因

如何划分输入空间

  • 一个启发式方法是:以特征向量中的某一个特征为标准进行切分

    假设选择特征向量中第 j 个变量作为切分变量,然后选择某个实例中第 j 个值 s 作为切分点,则定义如下两个划分单元

    原书中这里表述不够清楚,需要结合 8.4.2 节中的示例一起看。

  • 遍历每个实例的第j个值s,选择满足以下条件的作为最优切分变量j和切分点s

    其中输出值 c1c2 分别为

    示例: 选择切分变量与切分点

  • 接着,继续对两个子空间重复以上步骤,直到满足条件为止;得到将输入空间划分为M个区域的决策树

示例: 选择切分变量与切分点

《统计学习方法》 8.4.2

  • 训练集
x_i12345678910
y_i5.565.705.916.406.807.058.908.709.009.05
  • 基本思想:由多个学习器组合成一个性能更好的学习器
  • 集成学习为什么有效?——不同的模型通常会在测试集上产生不同的误差。平均上,集成模型能至少与其任一成员表现一致;并且如果成员的误差是独立的,集成模型将显著地比其成员表现更好。

    《深度学习》 7.11 Bagging 和其他集成方法

集成学习的基本策略(3)

1. Boosting

  • Boosting(提升)方法从某个基学习器出发,反复学习,得到一系列基学习器,然后组合它们构成一个强学习器。
  • Boosting 基于串行策略:基学习器之间存在依赖关系,新的学习器需要依据旧的学习器生成。
  • 代表算法/模型

Boosting 策略要解决的两个基本问题

  1. 每一轮如何改变数据的权值或概率分布?
  2. 如何将弱分类器组合成一个强分类器?

2. Bagging

  • Bagging 基于并行策略:基学习器之间不存在依赖关系,可同时生成。
  • 代表算法/模型

3. Stacking

  • 介绍不多,有时间再整理

AdaBoost 算法

  • AdaBoost 是 Boosting 策略的一种具体算法

AdaBoost 算法解决 Boosting 两个基本问题的方法

  1. 每一轮如何改变数据的权值或概率分布?——开始时,每个样本的权值是一样的,AdaBoost 的做法是提高上一轮弱分类器错误分类样本的权值,同时降低那些被正确分类样本的权值。
  2. 如何将弱分类器组合成一个强分类器?—— AdaBoost 采取加权表决的方法(加法模型)。具体的,AdaBoost 会加大分类误差率小的基学习器的权值,使其在表决中起到更大的作用,同时减小分类误差率大的基学习器的权值。

AdaBoost 算法描述

  • 输入:训练集 T={(x1,y1),..,(xN,yN)}, xi ∈ R^n, yi ∈ {-1,+1},基学习器 G1(x)
  • 输出:最终学习器 G(x)
  1. 初始化训练数据的全职分布

  2. m=1,2,..,M

    1. 使用权值分布为D_m的训练集,得到基分类器:

    2. 计算 G_m(x) 在训练集上的分类误差率

      \&=\sum{i=1}^Nw{m,i}\cdot&space;{\color{Red}&space;I(G_m(x_i)\neq&space;y_i)}&space;\end{aligned})

      I(x) 为指示函数:若G(x)!=y为真,则I(G(x)!=y)=1,反之为 0

      实际上分类误差率就等于所有分类错误的数据的权值之和

    3. 计算 G_m(x) 的系数

    4. 更新训练集的权值分布

       

      }{Z_{\color{Red}m}}&space;\end{aligned})

      其中 Z_m规范化因子,使 D_m+1 成为一个概率分布,类似 Softmax 函数

      因为 y, G(x) ∈ {-1, 1},所以实际上

      因此 w_{m+1,i} 也可以写作

  3. 构建基学习器的线性组合

    )

AdaBoost 算法要点说明

  • 开始时,训练集中所有数据具有均匀的权值分布
  • 计算分类误差率,实际上就是计算所有分类错误的数据的权值之和
  • G_m(x) 的系数 α_m 表示该学习器在最终学习器中的重要性;公式
    表明当分类错误率 e_m <= 1/2 时,α_m >= 0,并且 α_me_m 的减小而增大
  • 被基分类器分类错误的样本权值会扩大,而分类正确的权值会缩小——不改变训练数据,而不断改变训练数据权值的分布,使训练数据在基学习器的学习中起到不同的作用,这是 AdaBoost 的一个特点。

前向分步算法

加法模型

  • 定义加法模型:

    其中b(x;γ)为基函数,γ为基函数的参数;β为基函数的系数

  • 在给定训练数据和损失函数L(y,f(x))的情况下,学习加法模型相当于损失函数的最小化问题

    )

前向分步算法描述

前向分步算法求解加法模型的想法是:如果能够从前向后,每一步只学习一个基函数及其系数,逐步优化目标函数

  • 输入:训练集 T={(x1,y1),..,(xN,yN)},损失函数 L(y,f(x)),基函数集 {b(x;γ)}
  • 输出:加法模型 f(x)
  1. 初始化 f_0(x)=0

  2. m=1,2,..,M

    1. 极小化损失函数,得到 (β_m,γ_m)

      )

    2. 更新模型 f_m(x)

  3. 得到加法模型

  • 前向分步算法将同时求解m=1,2,..,M所有参数(β_m,γ_m)的问题简化逐次求解各(β_m,γ_m)的优化问题——思想上有点像梯度下降

前向分步算法与 AdaBoost

  • AdaBoost 算法是前向分步算法的特例。
  • 此时,基函数为基分类器,损失函数为指数函数L(y,f(x)) = exp(-y*f(x))
  • GBDT 是以决策树为基学习器、采用 Boosting 策略的一种集成学习模型
  • 与提升树的区别:残差的计算不同,提升树使用的是真正的残差,梯度提升树用当前模型的负梯度来拟合残差。

提升树 Boosting Tree

  • 决策树为基学习器,对分类问题使用二叉分类树,回归问题使用二叉回归树。

  • 解决回归问题时,通过不断拟合残差得到新的树。

  • 提升树模型可表示为决策树的加法模型

  • 首先初始化提升树 f_0(x)=0,则第 m 步的模型为

  • 然后通过最小化损失函数决定下一个决策树的参数

  • 对于二分类问题,提升树算法只需要将AdaBoost 算法中的基学习器限制为二叉分类树即可

提升树算法描述

在回归问题中,新的树是通过不断拟合残差(residual)得到的。

  • 输入:训练集 T={(x1,y1),..,(xN,yN)}, xi ∈ R^n, yi ∈ R
  • 输出:回归提升树 f_M(x)
  1. 初始化 f_0(x)=0

  2. m=1,2,..,M

    1. 计算残差

    2. 拟合残差学习下一个回归树的参数

      回归树算法推导 TODO

    3. 更新 f_m(x)

  3. 得到回归提升树

  • 以平凡损失为例 TODO

梯度提升(GB)算法

  • 当损失函数为平方损失或指数损失时,每一步的优化是很直观的;但对于一般的损失函数而言,不太容易——梯度提升正是针对这一问题提出的算法;
  • 梯度提升是梯度下降的近似方法,其关键是利用损失函数的负梯度作为残差的近似值,来拟合下一个决策树。

GBDT 算法描述

  • 输入:训练集 T={(x1,y1),..,(xN,yN)}, xi ∈ R^n, yi ∈ R;损失函数 L(y,f(x))
  • 输出:回归树 f_M(x)
  1. 初始化回归树

  2. m=1,2,..,M

    1. i=1,2,..,N,计算残差/负梯度

    2. r_mi 拟合一个回归树,得到第 m 棵树的叶节点区域

      CART 回归树算法推导

    3. j=1,2,..,J,计算

    4. 更新回归树

  3. 得到回归树

  • 说明:
    • 算法第 1 步初始化,估计使损失函数最小的常数值,得到一棵只有一个根节点的树
    • 第 2(i) 步计算损失函数的负梯度,将其作为残差的估计
      • 对平方损失而言,负梯度就是残差;对于一般的损失函数,它是残差的近似
    • 第 2(ii) 步估计回归树的节点区域,以拟合残差的近似值
    • 第 2(iii) 步利用线性搜索估计叶节点区域的值,使损失函数最小化

XGBoost 算法

一步一步理解GB、GBDT、xgboost - wxquare - 博客园

XGBoost 与 GB 的主要区别

Introduction to Boosted Trees — xgboost 0.72 documentation

  • 首先,定义一棵树 f(x)

Here w is the vector of scores on leaves, q is a function assigning each data point to the corresponding leaf, and T is the number of leaves.

  • 对损失函数加入正则项,包括 L2 权重衰减和对叶子数的限制

  • 使用牛顿法代替梯度下降法寻找最优解

    前者使用一阶+二阶导数作为残差,后者只使用了一阶导数

  • 传统 CART树寻找最优切分点的标准是最小化均方差

    XGBoost 通过最大化得分公式来寻找最优切分点:

    This formula can be decomposed as 1). the score on the new left leaf 2). the score on the new right leaf 3). The score on the original leaf 4). regularization on the additional leaf.

    这同时也起到了“剪枝”的作用——如果分数小于γ,则不会增加分支;

XGBoost 的一些内部优化

  • 在寻找最佳分割点时,传统的方法会枚举每个特征的所有可能切分点。XGBoost 实现了一种近似的算法,大致的思想是根据百分位法列举几个可能成为分割点的候选者,然后从候选者中根据上面求分割点的公式计算找出最佳的分割点。
  • XGBoost 考虑了训练数据为稀疏值的情况,可以为缺失值或者指定的值指定分支的默认方向,这能大大提升算法的效率,paper 提到能提高 50 倍。
  • 特征列排序后以块的形式存储在内存中,在迭代中可以重复使用;虽然 Boosting 算法迭代必须串行,但是在处理每个特征列时可以做到并行。
  • 按照特征列方式存储能优化寻找最佳的分割点,但是当以行计算梯度数据时会导致内存的不连续访问,严重时会导致 cache miss,降低算法效率。Paper 中提到,可先将数据收集到线程内部的 buffer,然后再计算,提高算法的效率。
  • XGBoost 还考虑了数据量比较大的情况,当内存不够时怎么有效的使用磁盘,主要是结合多线程、数据压缩、分片的方法,尽可能的提高算法的效率。

TODO

Box–Muller 变换

Box-Muller变换原理详解 – 史帅个人网站

  • Box–Muller 变换是一个从均匀分布中得到正态分布采样的算法
  • Box–Muller 变换定理:

    假设随机变量U1U2是 IID(独立同分布) 的,且 U1,U2 ∽ U(0,1),令Z1,Z2满足

    Z1,Z2 ∽ N(0, 1),即 Z1,Z2 服从标准正态分布。

TODO

SVD

PCA

t-SNE

  • 在高维中接近,在低维中也接近
  • 目标函数:KL 散度(非对称)

Reference