目录
当前位置: 首页 > 文档资料 > 机器学习 >

线性判别分析

优质
小牛编辑
131浏览
2023-12-01

线性判别分析(Linear Discriminant Analysis,LDA)是一种经典的线性分类方法。它设法将数据集投影到一条直线上,使得同类样例的投影点尽可能接近,异类样例的投影点尽可能远。这样,在分类时,新样本同样投影到这条直线上,根据投影点的位置来确定类别。

由于 LDA 把原来N维的样本投影到了 N-1 维空间,因而也常被视为一种经典的降维技术。

LDA算法

预使得同类样例的投影点尽可能接近,可以让同类样例投影点的协方差尽可能小,即 $$w^T\sum_0w+w^T\sum_1w$$ 尽可能小。预使得异类样例的投影点尽可能远,可以让不同类样例的投影点尽可能远,即让类中心距离尽可能大,即 $$||w^Tu_0-w^Tu_1||_2^2$$ 尽可能大。这样,目标函数为

$$J=\frac{w^TS_bw}{w^TS_ww}$$

其中

类内散度矩阵 $$S_w=\sum_0+\sum1=\sum{x \epsilon X_0}(x-u_0)(x-u0)^T+\sum{x \epsilon X_1}(x-u_1)(x-u_1)^T$$

类间散度矩阵 $$S_b=(u_0-u_1)(u_0-u_1)^T$$

使用拉格朗日乘子法 $$S_bw=\lambda S_ww$$,可以求解得到

$$w=S_w^{-1}(u_0-u_1)$$

对多分类情况,$$S_bW=\lambda S_wW$$,$$W$$ 的解是 $$S_w^{-1}S_b$$ 的 $$N-1$$ 个最大广义特征值所对应的特征向量组成的矩阵。