当前位置: 首页 > 编程笔记 >

python实现拉普拉斯特征图降维示例

司寇善
2023-03-14
本文向大家介绍python实现拉普拉斯特征图降维示例,包括了python实现拉普拉斯特征图降维示例的使用技巧和注意事项,需要的朋友参考一下

这种方法假设样本点在光滑的流形上,这一方法的计算数据的低维表达,局部近邻信息被最优的保存。以这种方式,可以得到一个能反映流形的几何结构的解。

步骤一:构建一个图G=(V,E),其中V={vi,i=1,2,3…n}是顶点的集合,E={eij}是连接顶点的vi和vj边,图的每一个节点vi与样本集X中的一个点xi相关。如果xi,xj相距较近,我们就连接vi,vj。也就是说在各自节点插入一个边eij,如果Xj在xi的k领域中,k是定义参数。

步骤二:每个边都与一个权值Wij相对应,没有连接点之间的权值为0,连接点之间的权值:

步骤三: ,实现广义本征分解:

使 是最小的m+1个本征值。忽略与 =0相关的本征向量,选取另外m个本征向量即为降维后的向量。

1、python实现拉普拉斯降维

def laplaEigen(dataMat,k,t): 
 m,n=shape(dataMat) 
 W=mat(zeros([m,m])) 
 D=mat(zeros([m,m])) 
 for i in range(m): 
 k_index=knn(dataMat[i,:],dataMat,k) 
 for j in range(k): 
  sqDiffVector = dataMat[i,:]-dataMat[k_index[j],:] 
  sqDiffVector=array(sqDiffVector)**2 
  sqDistances = sqDiffVector.sum() 
  W[i,k_index[j]]=math.exp(-sqDistances/t) 
  D[i,i]+=W[i,k_index[j]] 
 L=D-W 
 Dinv=np.linalg.inv(D) 
 X=np.dot(D.I,L) 
 lamda,f=np.linalg.eig(X) 
return lamda,f 
def knn(inX, dataSet, k): 
 dataSetSize = dataSet.shape[0] 
 diffMat = tile(inX, (dataSetSize,1)) - dataSet 
 sqDiffMat = array(diffMat)**2 
 sqDistances = sqDiffMat.sum(axis=1) 
 distances = sqDistances**0.5 
 sortedDistIndicies = distances.argsort() 
return sortedDistIndicies[0:k] 
dataMat, color = make_swiss_roll(n_samples=2000) 
lamda,f=laplaEigen(dataMat,11,5.0) 
fm,fn =shape(f) 
print 'fm,fn:',fm,fn 
lamdaIndicies = argsort(lamda) 
first=0 
second=0 
print lamdaIndicies[0], lamdaIndicies[1] 
for i in range(fm): 
 if lamda[lamdaIndicies[i]].real>1e-5: 
 print lamda[lamdaIndicies[i]] 
 first=lamdaIndicies[i] 
 second=lamdaIndicies[i+1] 
 break 
print first, second 
redEigVects = f[:,lamdaIndicies] 
fig=plt.figure('origin') 
ax1 = fig.add_subplot(111, projection='3d') 
ax1.scatter(dataMat[:, 0], dataMat[:, 1], dataMat[:, 2], c=color,cmap=plt.cm.Spectral) 
fig=plt.figure('lowdata') 
ax2 = fig.add_subplot(111) 
ax2.scatter(f[:,first], f[:,second], c=color, cmap=plt.cm.Spectral) 
plt.show() 

2、拉普拉斯降维实验

用如下参数生成实验数据存在swissdata.dat里面:

def make_swiss_roll(n_samples=100, noise=0.0, random_state=None): 
 #Generate a swiss roll dataset. 
 t = 1.5 * np.pi * (1 + 2 * random.rand(1, n_samples)) 
 x = t * np.cos(t) 
 y = 83 * random.rand(1, n_samples) 
 z = t * np.sin(t) 
 X = np.concatenate((x, y, z)) 
 X += noise * random.randn(3, n_samples) 
 X = X.T 
 t = np.squeeze(t) 
return X, t 

实验结果如下:

以上这篇python实现拉普拉斯特征图降维示例就是小编分享给大家的全部内容了,希望能给大家一个参考,也希望大家多多支持小牛知识库。

 类似资料:
  • 我在Travis上构建Symfony 3.2项目时遇到了一些问题。下载所有依赖项后,它会给我以下错误消息: Sensio\Bundle\DistributionBundle\Composer\ScriptHandler::clearCache无法打开输入文件:应用程序/控制台脚本Sensio\Bundle\DistributionBundle\Composer\ScriptHandler::cle

  • 拉普拉斯(Laplacian)操作也是一个派生的操作,用来找出图像中的边缘。 这是一个二阶导数掩模。 在这个隐藏中,我们有两个进一步的分类,一个是正拉普拉斯操作,另一个是负拉普拉斯操作。 与其他算子不同,拉普拉斯并没有在任何特定方向上取出边缘,而是在后续分类中取出边缘。 向内边缘 向外边缘 可以使用类的方法对图像执行拉普拉斯变换操作,以下是此方法的语法。 该方法接受以下参数 - src - 表示源

  • #24届软开秋招面试经验大赏# 认准拉普拉斯,秋招必上岸 就业zixun可私。 字节二面安排在了滴滴车轮战之后。滴滴面完三轮之后我都累麻了。一小时之后又面字节,直接榨干。因此我愿意给这次面试打上五星难度。 由于过于劳累,面的啥已经忘了,大概回忆一下。 面了一小时,难度五颗星。 1 自我介绍 2 实习介绍 项目介绍 科研介绍 3 多余建模的范式 4 数据怎么组织的 5 冷启动问题咋解决 6 数据增强

  • #24届软开秋招面试经验大赏# 认准拉普拉斯,秋招必上岸 就业zixun可私。 面的是提前批,面试官看起来挺凶,其实还可以。 不过这一面其实问了我很多刁钻的问题,不过都没有抓着不放,回答一下就放过我了。感恩。 不知道字节商业化卷不卷。 面了一小时,难度4.5颗星。 1 自我介绍 2 实习介绍 项目介绍 科研介绍 3 介绍延迟转换问题,怎么解决 4 介绍怎么做的反事实 5 让我给我的论文里的结论做个

  • #24届软开秋招面试经验大赏# 认准拉普拉斯,秋招必上岸 就业zixun可私。 真没想到,秋招第一个offer竟然是字节的。面的是提前批,但是面完的时候已经到了八月末了,发的是正式批的offer。 hr小姐姐怪温柔的。 1 自我介绍 2 介绍过往经历 3 问我对几家公司的评价和对比 4 做owner的经历 5 和前面面试官的聊天经历 6 怎么平衡学习和实习 7 聊做过的学生工作 8 聊未来工作的选

  • #24届软开秋招面试经验大赏# 认准拉普拉斯,秋招必上岸 就业zixun可私。 京东整体面试难度中规中矩,不过面试体验确实好。 基本每轮面试官上来都先自我介绍,hr面甚至介绍了十分钟。一面面试官也很让人舒服。 东哥还是拿咱们当兄弟啊 一面一小时,难度3.5颗星。 1 自我介绍 2 项目介绍 科研介绍 实习介绍 3 问我的科研,什么是SSB问题 4 什么是PSC问题(论文里提出的问题) 5 具体是怎