近些年,基于低秩的特征提取方法,由于他对噪声的鲁棒性和揭示数据固有全局结构方面的良好性能,收到广泛关注。然而原始的基于低秩的方法,如RPCA和LRR不能处理训练样本之外的新样本。为解决这一问题,Bao等人提出了IRPCA,通过学习低秩投影,既具有PCA的优点,又具有RPCA的优点。LatLRR考虑未被观测到的数据,学习一个低秩投影在无监督分类中提取显著特征。DLRR将LatLRR中的主成分恢复项和显著特征提取项整合为一项。但前面的方法由于所得到的投影矩阵与原始矩阵具有相同的维数,因此丧失了降维的能力。为了解决这个问题,类似于SPP的策略,LRPE首先从数据中学习一个LRR图,然后利用它来实现投影。此外Wong等人提出联合低秩嵌入投影LREP,将LRR图学习集成到联合优化模型中。
上述无监督特征提取方法都专注于利用数据的内在关系来学习投影。但它们存在以下问题:
针对上述问题,提出了一种基于图正则化的低秩保持投影方法LRPP_GRR。
不同于SPP,LPP,NPE和LRPE,LRPP_GRR将图学习和投影学习集成到一个联合优化的框架中,保证了全局最优。具体的LRPP_GRR有以下动机:
LatLRR只提取显著特征来进行分类,而忽略主成分信息。主成分也很有用。相比于LatLRR,DLRR不仅提取主成分,同时还保留数据的全局表示结构。
DLRR:
m
i
n
Z
,
L
∣
∣
Z
∣
∣
∗
+
∣
∣
L
∣
∣
∗
min_{Z,L}||Z||_*+||L||_*
minZ,L∣∣Z∣∣∗+∣∣L∣∣∗
基于DLRR,本文提出了一个更灵活的学习投影矩阵的方法。
m
i
n
P
,
Q
,
Z
∣
∣
Z
∣
∣
∗
,
s
.
t
.
X
=
P
Q
T
X
Z
min_{P,Q,Z}||Z||_*,s.t. X=PQ^TXZ
minP,Q,Z∣∣Z∣∣∗,s.t.X=PQTXZ其中Q是投影矩阵。X一列一个样本。
受SPCA的启发,对P施加正交约束得到:
m
i
n
P
,
Q
,
Z
∣
∣
Z
∣
∣
∗
,
s
.
t
.
X
=
P
Q
T
X
Z
,
P
T
P
=
I
min_{P,Q,Z}||Z||_*,s.t. X=PQ^TXZ,P^TP=I
minP,Q,Z∣∣Z∣∣∗,s.t.X=PQTXZ,PTP=I这种情况下,P被认为是重构矩阵,使得Q能更好的捕捉主成分。
相比于DLRR,以上模型不仅有DLRR的优点,还实现了降维。
考虑到数据不仅包含大维度,还有许多对分类无用的冗余特征。因此对Q施加L2,1范数,得到:
m
i
n
P
,
Q
,
Z
λ
1
∣
∣
Z
∣
∣
∗
+
λ
2
∣
∣
Q
∣
∣
2
,
1
,
s
.
t
.
X
=
P
Q
T
X
Z
,
P
T
P
=
I
min_{P,Q,Z}\lambda_1||Z||_*+\lambda_2||Q||_{2,1},s.t. X=PQ^TXZ,P^TP=I
minP,Q,Zλ1∣∣Z∣∣∗+λ2∣∣Q∣∣2,1,s.t.X=PQTXZ,PTP=I其中
λ
1
,
λ
2
\lambda_1,\lambda_2
λ1,λ2是正则化参数,用于平衡相应的项。通过对Q施加L2,1范数,能够一致的选择有用的特征,且更具有解释性。
正如前面所说的,LRR捕捉了数据的全局结构,而忽略了数据的局部结构。现实应用种,数据(如人脸图像)通常取样自一个非线性的流行空间,所以保留局部结构也同样重要。下面介绍一个定理:
Lemma1: 假设样本
x
1
∈
R
m
∗
1
x_1∈R^{m*1}
x1∈Rm∗1是样本
x
2
∈
R
m
∗
1
x_2∈R^{m*1}
x2∈Rm∗1的最近邻,且它们都可以用字典
D
∈
R
m
∗
n
D∈R^{m*n}
D∈Rm∗n来表示,
x
1
=
D
α
1
,
x
2
=
D
α
2
x_1=D\alpha_1,x_2=D\alpha_2
x1=Dα1,x2=Dα2,。于是
x
1
(
x
2
)
x_1(x_2)
x1(x2)和样本
D
α
2
(
D
α
1
)
D\alpha_2(D\alpha_1)
Dα2(Dα1)与它们的原始样本有同样的最近邻关系。
根据以上定理,在原始样本和重构样本的损失项上施加一个图约束来保持局部几何结构,得到如下模型:
m
i
n
P
,
Q
,
Z
∑
i
=
1
n
∑
j
=
1
n
∣
∣
x
i
−
P
Q
T
X
z
j
∣
∣
2
2
w
i
,
j
+
λ
1
∣
∣
Z
∣
∣
∗
+
λ
2
∣
∣
Q
∣
∣
2
,
1
,
s
.
t
.
P
T
P
=
I
min_{P,Q,Z}\sum_{i=1}^n\sum_{j=1}^n||x_i-PQ^TXz_j||_2^2w_{i,j}+\lambda_1||Z||_*+\lambda_2||Q||_{2,1},s.t. P^TP=I
minP,Q,Zi=1∑nj=1∑n∣∣xi−PQTXzj∣∣22wi,j+λ1∣∣Z∣∣∗+λ2∣∣Q∣∣2,1,s.t.PTP=I其中W表示最近邻图,Z表示LRR矩阵。
P
Q
T
X
z
j
PQ^TXz_j
PQTXzj可被视为对原始样本
x
j
x_j
xj的重构样本。