10 机器学习 - KNN分类算法原理
2021/7/8 11:11:46
本文主要是介绍10 机器学习 - KNN分类算法原理,对大家解决编程问题具有一定的参考价值,需要的程序猿们随着小编来一起学习吧!
1 概述
K最近邻(k-Nearest Neighbor,KNN)分类算法是最简单的机器学习算法。(机器学习,算法本身不是最难的,最难的是:1、数学建模:把业务中的特性抽象成向量的过程;2、选取适合模型的数据样本。这两个事都不是简单的事。算法反而是比较简单的事。)
KNN算法的指导思想是“近朱者赤,近墨者黑”,由你的邻居来推断出你的类别。
本质上,KNN算法就是用距离来衡量样本之间的相似度
2 算法图示
从训练集中找到和新数据最接近的k条记录,然后根据多数类来决定新数据类别。
算法涉及3个主要因素:
1) 训练数据集 2) 距离或相似度的计算衡量 3) k的大小
算法描述:
- 已知两类“先验”数据,分别是蓝方块和红三角,他们分布在一个二维空间中
- 有一个未知类别的数据(绿点),需要判断它是属于“蓝方块”还是“红三角”类
- 考察离绿点最近的3个(或k个)数据点的类别,占多数的类别即为绿点判定类别
3 算法要点
3.1 计算步骤
计算步骤如下:
1)算距离:给定测试对象,计算它与训练集中的每个对象的距离 2)找邻居:圈定距离最近的k个训练对象,作为测试对象的近邻 3)做分类:根据这k个近邻归属的主要类别,来对测试对象分类
3.2 相似度的衡量
- 距离越近应该意味着这两个点属于一个分类的可能性越大。
但,距离不能代表一切,有些数据的相似度衡量并不适合用距离 - 相似度衡量方法:包括欧式距离、夹角余弦等。
简单应用中,一般使用欧氏距离,但对于文本分类来说,使用余弦(cosine)来计算相似度就比欧式(Euclidean)距离更合适
3.3 类别的判定
- 简单投票法:少数服从多数,近邻中哪个类别的点最多就分为该类。
- 加权投票法:根据距离的远近,对近邻的投票进行加权,距离越近则权重越大(权重为距离平方的倒数)
4 算法不足之处
4.1 样本不平衡容易导致结果错误
- 如一个类的样本容量很大,而其他类样本容量很小时,有可能导致当输入一个新样本时,该样本的K个邻居中大容量类的样本占多数。
- 改善方法:对此可以采用权值的方法(和该样本距离小的邻居权值大)来改进。
4.2 计算量较大
- 因为对每一个待分类的文本都要计算它到全体已知样本的距离,才能求得它的K个最近邻点。
- 改善方法:事先对已知样本点进行剪辑,事先去除对分类作用不大的样本。
该方法比较适用于样本容量比较大的类域的分类,而那些样本容量较小的类域采用这种算法比较容易产生误分。
这篇关于10 机器学习 - KNN分类算法原理的文章就介绍到这儿,希望我们推荐的文章对大家有所帮助,也希望大家多多支持为之网!
- 2024-12-17机器学习资料入门指南
- 2024-12-06如何用OpenShift流水线打造高效的机器学习运营体系(MLOps)
- 2024-12-06基于无监督机器学习算法的预测性维护讲解
- 2024-12-03【机器学习(六)】分类和回归任务-LightGBM算法-Sentosa_DSML社区版
- 2024-12-0210个必须使用的机器学习API,为高级分析助力
- 2024-12-01【机器学习(五)】分类和回归任务-AdaBoost算法-Sentosa_DSML社区版
- 2024-11-28【机器学习(四)】分类和回归任务-梯度提升决策树(GBDT)算法-Sentosa_DSML社区版
- 2024-11-26【机器学习(三)】分类和回归任务-随机森林(Random Forest,RF)算法-Sentosa_DSML社区版
- 2024-11-18机器学习与数据分析的区别
- 2024-10-28机器学习资料入门指南