k近邻算法的介绍
k近邻算法是一种基本的分类和回归方法,这里只实现分类的k近邻算法。
k近邻算法的输入为实例的特征向量,对应特征空间的点;输出为实例的类别,可以取多类。
k近邻算法不具有显式的学习过程,实际上k近邻算法是利用训练数据集对特征向量空间进行划分。将划分的空间模型作为其分类模型。
k近邻算法的三要素
下面对三要素进行一下说明:
1.欧氏距离即欧几里得距离,高中数学中用来计算点和点间的距离公式;
2.k值选择:k值选择会对k近邻法结果产生重大影响,如果选择较小的k值,相当于在较小的邻域中训练实例进行预测,这样有点是“近似误差”会减小,即只与输入实例较近(相似)的训练实例才会起作用,缺点是“估计误差”会增大,即对近邻的实例点很敏感。而k值过大则相反。实际中取较小的k值通过交叉验证的方法取最优k值。
3.k近邻法的分类决策规则往往采用多数表决的方式,这等价于“经验风险最小化”。
k近邻算法的实现:kd树
实现k近邻法是要考虑的主要问题是如何退训练数据进行快速的k近邻搜索,当训练实例数很大是显然通过一般的线性搜索方式效率低下,因此为了提高搜索效率,需要构造特殊的数据结构对训练实例进行存储。kd树就是一种不错的数据结构,可以大大提高搜索效率。
本质商kd树是对k维空间的一个划分,构造kd树相当与使用垂直于坐标轴的超平面将k维空间进行切分,构造一系列的超矩形,kd树的每一个结点对应一个这样的超矩形。
kd树本质上是一棵二叉树,当通过一定规则构造是他是平衡的。
下面是过早kd树的算法:
以下是kd树的python实现
准备工作
#读取数据准备 def file2matrix(filename): fr = open(filename) returnMat = [] #样本数据矩阵 for line in fr.readlines(): line = line.strip().split('\t') returnMat.append([float(line[0]),float(line[1]),float(line[2]),float(line[3])]) return returnMat #将数据归一化,避免数据各维度间的差异过大 def autoNorm(data): #将data数据和类别拆分 data,label = np.split(data,[3],axis=1) minVals = data.min(0) #data各列的最大值 maxVals = data.max(0) #data各列的最小值 ranges = maxVals - minVals normDataSet = np.zeros(np.shape(data)) m = data.shape[0] #tile函数将变量内容复制成输入矩阵同样大小的矩阵 normDataSet = data - np.tile(minVals,(m,1)) normDataSet = normDataSet/np.tile(ranges,(m,1)) #拼接 normDataSet = np.hstack((normDataSet,label)) return normDataSet
//数据实例 40920 8.326976 0.953952 3 14488 7.153469 1.673904 2 26052 1.441871 0.805124 1 75136 13.147394 0.428964 1 38344 1.669788 0.134296 1 72993 10.141740 1.032955 1 35948 6.830792 1.213192 3 42666 13.276369 0.543880 3 67497 8.631577 0.749278 1 35483 12.273169 1.508053 3 //每一行是一个数据实例,前三维是数据值,第四维是类别标记
树结构定义
#构建kdTree将特征空间划分 class kd_tree: """ 定义结点 value:节点值 dimension:当前划分的维数 left:左子树 right:右子树 """ def __init__(self, value): self.value = value self.dimension = None #记录划分的维数 self.left = None self.right = None def setValue(self, value): self.value = value #类似Java的toString()方法 def __str__(self): return str(self.value)
kd树构造
def creat_kdTree(dataIn, k, root, deep): """ data:要划分的特征空间(即数据集) k:表示要选择k个近邻 root:树的根结点 deep:结点的深度 """ #选择x(l)(即为第l个特征)为坐标轴进行划分,找到x(l)的中位数进行划分 # x_L = data[:,deep%k] #这里选取第L个特征的所有数据组成一个列表 #获取特征值中位数,这里是难点如果numpy没有提供的话 if(dataIn.shape[0]>0): #如果该区域还有实例数据就继续 dataIn = dataIn[dataIn[:,int(deep%k)].argsort()] #numpy的array按照某列进行排序 data1 = None; data2 = None #拿取根据xL排序的中位数的数据作为该子树根结点的value if(dataIn.shape[0]%2 == 0): #该数据集有偶数个数据 mid = int(dataIn.shape[0]/2) root = kd_tree(dataIn[mid,:]) root.dimension = deep%k dataIn = np.delete(dataIn,mid, axis = 0) data1,data2 = np.split(dataIn,[mid], axis=0) #mid行元素分到data2中,删除放到根结点中 elif(dataIn.shape[0]%2 == 1): mid = int((dataIn.shape[0]+1)/2 - 1) #这里出现递归溢出,当shape为(1,4)时出现,原因是np.delete时没有赋值给dataIn root = kd_tree(dataIn[mid,:]) root.dimension = deep%k dataIn = np.delete(dataIn,mid, axis = 0) data1,data2 = np.split(dataIn,[mid], axis=0) #mid行元素分到data1中,删除放到根结点中 #深度加一 deep+=1 #递归构造子树 #这里犯了严重错误,递归调用是将root传递进去,造成程序混乱,应该给None root.left = creat_kdTree(data1, k, None, deep) root.right = creat_kdTree(data2, k, None, deep) return root
前序遍历测试
#前序遍历kd树 def preorder(kd_tree,i): print(str(kd_tree.value)+" :"+str(kd_tree.dimension)+":"+str(i)) if kd_tree.left != None: preorder(kd_tree.left,i+1) if kd_tree.right != None: preorder(kd_tree.right,i+1)
kd树的最近邻搜索
最近邻搜索算法,k近邻搜索在此基础上实现
原理:首先找到包含目标点的叶节点;然后从该也结点出发,一次退回到父节点,不断查找与目标点最近的结点,当确定不可能存在更近的结点是停止。
def findClosest(kdNode,closestPoint,x,minDis,i=0): """ 这里存在一个问题,当传递普通的不可变对象minDis时,递归退回第一次找到 最端距离前,minDis改变,最后结果混乱,这里传递一个可变对象进来。 kdNode:是构造好的kd树。 closestPoint:是存储最近点的可变对象,这里是array x:是要预测的实例 minDis:是当前最近距离。 """ if kdNode == None: return #计算欧氏距离 curDis = (sum((kdNode.value[0:3]-x[0:3])**2))**0.5 if minDis[0] < 0 or curDis < minDis[0] : i+=1 minDis[0] = curDis closestPoint[0] = kdNode.value[0] closestPoint[1] = kdNode.value[1] closestPoint[2] = kdNode.value[2] closestPoint[3] = kdNode.value[3] print(str(closestPoint)+" : "+str(i)+" : "+str(minDis)) #递归查找叶节点 if kdNode.value[kdNode.dimension] >= x[kdNode.dimension]: findClosest(kdNode.left,closestPoint,x,minDis,i) else: findClosest(kdNode.right, closestPoint, x, minDis,i) #计算测试点和分隔超平面的距离,如果相交进入另一个叶节点重复 rang = abs(x[kdNode.dimension] - kdNode.value[kdNode.dimension]) if rang > minDis[0] : return if kdNode.value[kdNode.dimension] >= x[kdNode.dimension]: findClosest(kdNode.right,closestPoint,x,minDis,i) else: findClosest(kdNode.left, closestPoint, x, minDis,i)
测试:
data = file2matrix("datingTestSet2.txt") data = np.array(data) normDataSet = autoNorm(data) sys.setrecursionlimit(10000) #设置递归深度为10000 trainSet,testSet = np.split(normDataSet,[900],axis=0) kdTree = creat_kdTree(trainSet, 3, None, 0) newData = testSet[1,0:3] closestPoint = np.zeros(4) minDis = np.array([-1.0]) findClosest(kdTree, closestPoint, newData, minDis) print(closestPoint) print(testSet[1,:]) print(minDis)
测试结果
[0.35118819 0.43961918 0.67110669 3. ] : 1 : [0.40348346]
[0.11482037 0.13448927 0.48293309 2. ] : 2 : [0.30404792]
[0.12227055 0.07902201 0.57826697 2. ] : 3 : [0.22272422]
[0.0645755 0.10845299 0.83274698 2. ] : 4 : [0.07066192]
[0.10020488 0.15196271 0.76225551 2. ] : 5 : [0.02546591]
[0.10020488 0.15196271 0.76225551 2. ]
[0.08959933 0.15442555 0.78527657 2. ]
[0.02546591]
k近邻搜索实现
在最近邻的基础上进行改进得到:
这里的closestPoint和minDis合并,一同处理
#k近邻搜索 def findKNode(kdNode, closestPoints, x, k): """ k近邻搜索,kdNode是要搜索的kd树 closestPoints:是要搜索的k近邻点集合,将minDis放入closestPoints最后一列合并 x:预测实例 minDis:是最近距离 k:是选择k个近邻 """ if kdNode == None: return #计算欧式距离 curDis = (sum((kdNode.value[0:3]-x[0:3])**2))**0.5 #将closestPoints按照minDis列排序,这里存在一个问题,排序后返回一个新对象 #不能将其直接赋值给closestPoints tempPoints = closestPoints[closestPoints[:,4].argsort()] for i in range(k): closestPoints[i] = tempPoints[i] #每次取最后一行元素操作 if closestPoints[k-1][4] >=10000 or closestPoints[k-1][4] > curDis: closestPoints[k-1][4] = curDis closestPoints[k-1,0:4] = kdNode.value #递归搜索叶结点 if kdNode.value[kdNode.dimension] >= x[kdNode.dimension]: findKNode(kdNode.left, closestPoints, x, k) else: findKNode(kdNode.right, closestPoints, x, k) #计算测试点和分隔超平面的距离,如果相交进入另一个叶节点重复 rang = abs(x[kdNode.dimension] - kdNode.value[kdNode.dimension]) if rang > closestPoints[k-1][4]: return if kdNode.value[kdNode.dimension] >= x[kdNode.dimension]: findKNode(kdNode.right, closestPoints, x, k) else: findKNode(kdNode.left, closestPoints, x, k)
测试
data = file2matrix("datingTestSet2.txt") data = np.array(data) normDataSet = autoNorm(data) sys.setrecursionlimit(10000) #设置递归深度为10000 trainSet,testSet = np.split(normDataSet,[900],axis=0) kdTree = creat_kdTree(trainSet, 3, None, 0) newData = testSet[1,0:3] print("预测实例点:"+str(newData)) closestPoints = np.zeros((3,5)) #初始化参数 closestPoints[:,4] = 10000.0 #给minDis列赋值 findKNode(kdTree, closestPoints, newData, 3) print("k近邻结果:"+str(closestPoints))
测试结果
预测实例点:[0.08959933 0.15442555 0.78527657]
k近邻结果:[[0.10020488 0.15196271 0.76225551 2. 0.02546591]
[0.10664709 0.13172159 0.83777837 2. 0.05968697]
[0.09616206 0.20475001 0.75047289 2. 0.06153793]]
以上就是本文的全部内容,希望对大家的学习有所帮助,也希望大家多多支持小牛知识库。
KNN 概述 k-近邻(kNN, k-NearestNeighbor)算法是一种基本分类与回归方法,我们这里只讨论分类问题中的 k-近邻算法。 一句话总结:近朱者赤近墨者黑! k 近邻算法的输入为实例的特征向量,对应于特征空间的点;输出为实例的类别,可以取多类。k 近邻算法假设给定一个训练数据集,其中的实例类别已定。分类时,对新的实例,根据其 k 个最近邻的训练实例的类别,通过多数表决等方式进行预
kd树python实现 1. 首先在构造kd树的时需要寻找中位数,因此用快速排序来获取一个list中的中位数 import matplotlib.pyplot as plt import numpy as np class QuickSort(object): "Quick Sort to get medium number" def __init__(self, low, h
kd树方法 $$kd$$树是一种对$$k$$维空间中的实例点进行存储以便对其进行快速检索的树形结构。它是二叉树,表示对$$k$$维空间的一个划分(partition)。构造$$kd$$树相当于不断地用垂直于坐标轴的超平面将$$k$$维空间划分,构成一列的$$k$$维超矩形区域。$$kd$$树的每个节点对应于一个$$k$$维超矩形区域。 pic source: http://homes.sice.i
综述 所谓:“近朱者赤,近墨者黑” 本文采用编译器:jupyter k近邻(简称kNN)算法是一种常用的监督学习算法, 其工作机制非常简单 : 给定测试样本,基于某种距离度量找出训练集中与其最靠近的 k个训练样本,然后基于这 k个"邻居"的信息来进行预测。 通常, 在分类任务中可使用"投票法" 即选择这 k个样本中出现最多的类别标记作为预测结果;还可基于距离远近进行加权平均或加权投票,距离越近的样
1.算法简介 AP(Affinity Propagation)通常被翻译为近邻传播算法或者亲和力传播算法,是在2007年的Science杂志上提出的一种新的聚类算法。AP算法的基本思想是将全部数据点都当作潜在的聚类中心(称之为exemplar),然后数据点两两之间连线构成一个网络(相似度矩阵),再通过网络中各条边的消息(responsibility和availability)传递计算出各样本的聚类
介绍 KNN算法全名为k-Nearest Neighbor,就是K最近邻的意思。KNN 也是一种分类算法。但是与之前说的决策树分类算法相比,这个算法算是最简单的一个了。算法的主要过程为: 1、给定一个训练集数据,每个训练集数据都是已经分好类的。 2、设定一个初始的测试数据a,计算a到训练集所有数据的欧几里得距离,并排序。 3、选出训练集中离a距离最近的