机器学习实战之k-近邻算法
2021/11/19 22:09:56
本文主要是介绍机器学习实战之k-近邻算法,对大家解决编程问题具有一定的参考价值,需要的程序猿们随着小编来一起学习吧!
python算法实例
#The first machine learning algorithm--kNN ''' 导入科学计算包Numpy和运算符模块 ''' from numpy import * import operator def creatDataSet(): group=array([[1.0,1.1],[1.0,1.0],[0,0],[0,0.1]]) labels=['A','A','B','B'] return group,labels ''' inX是用于分类的输入向量,dataSet输入的训练样本集, labels标签向量,k确定选择最近邻居的数目 ''' def classify0(inX,dataSet,labels,k): #计算距离 dataSetSize=dataSet.shape[0] #数据集的行 diffMat=tile(inX,(dataSetSize,1))-dataSet sqDiffMat=diffMat**2 sqDistance=sqDiffMat.sum(axis=1) distances=sqDistance**0.5 sortedDistanceIndicies=distances.argsort() classCount={} #选择距离最小的K个点 for i in range(k): voteIlabel=labels[sortedDistanceIndicies[i]] classCount[voteIlabel]=classCount.get(voteIlabel,0)+1 #排序 sortedClassCount=sorted(classCount.iteritems(),key=operator.itemgetter(1),reverse=True) return sortedClassCount[0][0] # group,labels=creatDataSet() # classify0([0,0],group,labels,3) # print(classify0([0,0],group,labels,3)) ''' 准备数据:从文本文件中解析数据,将文本记录转为numpy的解析程序 ''' def file2matrix(filename): fr=open(filename) arrayOLines=fr.readlines() numberOfLines=len(arrayOLines) #得到文件行数 returnMat=zeros((numberOfLines,3)) #创建0矩阵,用作返回的numpy矩阵 classLabelVector=[] index=0 #解析文件数据到列表 for line in arrayOLines: line=line.strip() #去掉所有回车字符 listFromLine=line.split('\t') #使用tab字符将上一步得到的整行数据分割为一个元素列表 returnMat[index,:]=listFromLine[0:3] #选取前三个元素,存到特征矩阵中 classLabelVector.append(int(listFromLine[-1])) #-1代表最后一列元素 index+=1 return returnMat,classLabelVector datingDataMat,datingLabels=file2matrix('datingTestSet.txt') ''' 分析数据:使用matplotlib创建散点图 ''' import matplotlib import matplotlib.pyplot as plt fig=plt.figure() ax=fig.add_subplot(111) ax.scatter(datingDataMat[:,1],datingDataMat[:,2], 15.0*array(datingLabels),15.0*array(datingLabels)) #使用datingDataMat矩阵第二列和第三列的数据 plt.show ''' 准备数据:归一化数据,将数据的取值范围处理为0到1或者-1到1 autoNorm()函数可以自动将数字特征值转化为0到1的区间 tile(x,(2))函数将x将函数沿着X轴扩大两倍,tile(x,(1,2))将x向Y轴扩大1倍,向X轴扩大2倍 ''' def autoNorm(dataSet): minVals=dataSet.min(0) #使得函数可以从列中选取最小值,列!!! maxVals=dataSet.max(0) #最大特征值 ranges=maxVals-minVals normDataSet=zeros(shape(dataSet)) m=dataSet.shape[0] #1000,和前面特征矩阵的行数相同 normDataSet=dataSet-tile(minVals,(m,1)) #统一特征矩阵1000x3和minVals、range(1x3)的大小 normDataSet=normDataSet/tile(ranges,(m,1)) #特征值相除 return normDataSet,ranges,minVals normMat,ranges,minVals=autoNorm(datingDataMat) ''' 测试算法:作为完整程序验证分类器 ''' def datingClassTest(): hoRatio=0.1 datingDataMat,datingLabels=file2matrix('datingTestSet.txt') normMat,ranges,minVals=autoNorm(datingDataMat) m=normMat.shape[0] numTestVecs=int(m*hoRatio) errorCount=0.0 for i in range(numTestVecs): classifierResult=classify0(normMat[i,:],normMat[numTestVecs:m,:], datingLabels[numTestVecs:m],3) print("the classifier came back with: %d, the real answer is: %d" \ % (classifierResult,datingLabels[i])) if (classifierResult !=datingLabels[i]): errorCount+=1.0 print("the total error rate is %f" %(errorCount/float(numTestVecs)))
这篇关于机器学习实战之k-近邻算法的文章就介绍到这儿,希望我们推荐的文章对大家有所帮助,也希望大家多多支持为之网!
- 2024-12-17机器学习资料入门指南
- 2024-12-06如何用OpenShift流水线打造高效的机器学习运营体系(MLOps)
- 2024-12-06基于无监督机器学习算法的预测性维护讲解
- 2024-12-03【机器学习(六)】分类和回归任务-LightGBM算法-Sentosa_DSML社区版
- 2024-12-0210个必须使用的机器学习API,为高级分析助力
- 2024-12-01【机器学习(五)】分类和回归任务-AdaBoost算法-Sentosa_DSML社区版
- 2024-11-28【机器学习(四)】分类和回归任务-梯度提升决策树(GBDT)算法-Sentosa_DSML社区版
- 2024-11-26【机器学习(三)】分类和回归任务-随机森林(Random Forest,RF)算法-Sentosa_DSML社区版
- 2024-11-18机器学习与数据分析的区别
- 2024-10-28机器学习资料入门指南