当前位置: 首页 > 编程笔记 >

kNN算法python实现和简单数字识别的方法

周涵畅
2023-03-14
本文向大家介绍kNN算法python实现和简单数字识别的方法,包括了kNN算法python实现和简单数字识别的方法的使用技巧和注意事项,需要的朋友参考一下

本文实例讲述了kNN算法python实现和简单数字识别的方法。分享给大家供大家参考。具体如下:

kNN算法算法优缺点:

优点:精度高、对异常值不敏感、无输入数据假定
缺点:时间复杂度和空间复杂度都很高
适用数据范围:数值型和标称型

算法的思路:

KNN算法(全称K最近邻算法),算法的思想很简单,简单的说就是物以类聚,也就是说我们从一堆已知的训练集中找出k个与目标最靠近的,然后看他们中最多的分类是哪个,就以这个为依据分类。

函数解析:

库函数:

tile()
如tile(A,n)就是将A重复n次

a = np.array([0, 1, 2])

np.tile(a, 2)

array([0, 1, 2, 0, 1, 2])

np.tile(a, (2, 2))

array([[0, 1, 2, 0, 1, 2],[0, 1, 2, 0, 1, 2]])

np.tile(a, (2, 1, 2))

array([[[0, 1, 2, 0, 1, 2]],[[0, 1, 2, 0, 1, 2]]])

b = np.array([[1, 2], [3, 4]])

np.tile(b, 2)

array([[1, 2, 1, 2],[3, 4, 3, 4]])

np.tile(b, (2, 1))

array([[1, 2],[3, 4],[1, 2],[3, 4]])`

自己实现的函数

createDataSet()生成测试数组
kNNclassify(inputX, dataSet, labels, k)分类函数

inputX 输入的参数
dataSet 训练集
labels 训练集的标号
k 最近邻的数目


#coding=utf-8

from numpy import *

import operator

def createDataSet():     group = array([[1.0, 0.9], [1.0, 1.0], [0.1, 0.2], [0.0, 0.1]])     labels = ['A','A','B','B']     return group,labels #inputX表示输入向量(也就是我们要判断它属于哪一类的) #dataSet表示训练样本 #label表示训练样本的标签 #k是最近邻的参数,选最近k个 def kNNclassify(inputX, dataSet, labels, k):     dataSetSize = dataSet.shape[0]#计算有几个训练数据     #开始计算欧几里得距离     diffMat = tile(inputX, (dataSetSize,1)) - dataSet         sqDiffMat = diffMat ** 2     sqDistances = sqDiffMat.sum(axis=1)#矩阵每一行向量相加     distances = sqDistances ** 0.5     #欧几里得距离计算完毕     sortedDistance = distances.argsort()     classCount = {}     for i in xrange(k):         voteLabel = labels[sortedDistance[i]]         classCount[voteLabel] = classCount.get(voteLabel,0) + 1     res = max(classCount)     return res

def main():     group,labels = createDataSet()     t = kNNclassify([0,0],group,labels,3)     print t     if __name__=='__main__':     main()

kNN应用实例

手写识别系统的实现

数据集:

两个数据集:training和test。分类的标号在文件名中。像素32*32的。数据大概这个样子:

方法:

kNN的使用,不过这个距离算起来比较复杂(1024个特征),主要是要处理如何读取数据这个问题的,比较方面直接调用就可以了。

速度:

速度还是比较慢的,这里数据集是:training 2000+,test 900+(i5的CPU)

k=3的时候要32s+


#coding=utf-8

from numpy import *

import operator

import os

import time

def createDataSet():     group = array([[1.0, 0.9], [1.0, 1.0], [0.1, 0.2], [0.0, 0.1]])     labels = ['A','A','B','B']     return group,labels #inputX表示输入向量(也就是我们要判断它属于哪一类的) #dataSet表示训练样本 #label表示训练样本的标签 #k是最近邻的参数,选最近k个 def kNNclassify(inputX, dataSet, labels, k):     dataSetSize = dataSet.shape[0]#计算有几个训练数据     #开始计算欧几里得距离     diffMat = tile(inputX, (dataSetSize,1)) - dataSet     #diffMat = inputX.repeat(dataSetSize, aixs=1) - dataSet     sqDiffMat = diffMat ** 2     sqDistances = sqDiffMat.sum(axis=1)#矩阵每一行向量相加     distances = sqDistances ** 0.5     #欧几里得距离计算完毕     sortedDistance = distances.argsort()     classCount = {}     for i in xrange(k):         voteLabel = labels[sortedDistance[i]]         classCount[voteLabel] = classCount.get(voteLabel,0) + 1     res = max(classCount)     return res

def img2vec(filename):     returnVec = zeros((1,1024))     fr = open(filename)     for i in range(32):         lineStr = fr.readline()         for j in range(32):             returnVec[0,32*i+j] = int(lineStr[j])     return returnVec     def handwritingClassTest(trainingFloder,testFloder,K):     hwLabels = []     trainingFileList = os.listdir(trainingFloder)     m = len(trainingFileList)     trainingMat = zeros((m,1024))     for i in range(m):         fileName = trainingFileList[i]         fileStr = fileName.split('.')[0]         classNumStr = int(fileStr.split('_')[0])         hwLabels.append(classNumStr)         trainingMat[i,:] = img2vec(trainingFloder+'/'+fileName)     testFileList = os.listdir(testFloder)     errorCount = 0.0     mTest = len(testFileList)     for i in range(mTest):         fileName = testFileList[i]         fileStr = fileName.split('.')[0]         classNumStr = int(fileStr.split('_')[0])         vectorUnderTest = img2vec(testFloder+'/'+fileName)         classifierResult = kNNclassify(vectorUnderTest, trainingMat, hwLabels, K)         #print classifierResult,' ',classNumStr         if classifierResult != classNumStr:             errorCount +=1     print 'tatal error ',errorCount     print 'error rate',errorCount/mTest         def main():     t1 = time.clock()     handwritingClassTest('trainingDigits','testDigits',3)     t2 = time.clock()     print 'execute ',t2-t1 if __name__=='__main__':     main()

希望本文所述对大家的Python程序设计有所帮助。

 类似资料:
  • 本文向大家介绍Python用 KNN 进行验证码识别的实现方法,包括了Python用 KNN 进行验证码识别的实现方法的使用技巧和注意事项,需要的朋友参考一下 前言 之前做了一个校园交友的APP,其中一个逻辑是通过用户的教务系统来确认用户是一名在校大学生,基本的想法是通过用户的账号和密码,用爬虫的方法来确认信息,但是许多教务系统都有验证码,当时是通过本地服务器去下载验证码,然后分发给客户端,然后让

  • 本文向大家介绍Python实现基于KNN算法的笔迹识别功能详解,包括了Python实现基于KNN算法的笔迹识别功能详解的使用技巧和注意事项,需要的朋友参考一下 本文实例讲述了Python实现基于KNN算法的笔迹识别功能。分享给大家供大家参考,具体如下: 需要用到: Numpy库 Pandas库 手写识别数据 点击此处本站下载。 数据说明: 数据共有785列,第一列为label,剩下的784列数据存

  • 本文向大家介绍Python图像识别+KNN求解数独的实现,包括了Python图像识别+KNN求解数独的实现的使用技巧和注意事项,需要的朋友参考一下 Python-opencv+KNN求解数独 最近一直在玩数独,突发奇想实现图像识别求解数独,输入到输出平均需要0.5s。 整体思路大概就是识别出图中数字生成list,然后求解。 输入输出demo 数独采用的是微软自带的Microsoft sudoku软

  • 本文向大家介绍python实现KNN分类算法,包括了python实现KNN分类算法的使用技巧和注意事项,需要的朋友参考一下 一、KNN算法简介 邻近算法,或者说K最近邻(kNN,k-NearestNeighbor)分类算法是数据挖掘分类技术中最简单的方法之一。所谓K最近邻,就是k个最近的邻居的意思,说的是每个样本都可以用它最接近的k个邻居来代表。 kNN算法的核心思想是如果一个样本在特征空间中的k

  • 本文向大家介绍用Python实现KNN分类算法,包括了用Python实现KNN分类算法的使用技巧和注意事项,需要的朋友参考一下 本文实例为大家分享了Python KNN分类算法的具体代码,供大家参考,具体内容如下 KNN分类算法应该算得上是机器学习中最简单的分类算法了,所谓KNN即为K-NearestNeighbor(K个最邻近样本节点)。在进行分类之前KNN分类器会读取较多数量带有分类标签的样本

  • 本文向大家介绍python可视化实现KNN算法,包括了python可视化实现KNN算法的使用技巧和注意事项,需要的朋友参考一下 简介 这里通过python的绘图工具Matplotlib包可视化实现机器学习中的KNN算法。 需要提前安装python的Numpy和Matplotlib包。 KNN–最近邻分类算法,算法逻辑比较简单,思路如下: 1.设一待分类数据iData,先计算其到已标记数据集中每个数