作者:王子旗; 何锦雯; 蒋良孝 期刊:《计算机工程与应用》 2019年第22期
作为数据挖掘领域十大算法之一,K-近邻算法(K-Nearest-Neighbor,KNN)因具有非参数、无需训练时间、简单有效等特点而得到广泛应用。然而,KNN算法在面对高维的大训练样本集时,分类时间复杂度高的问题成为其应用的瓶颈。另外,因训练样本的类分布不均匀而导致的类不平衡问题也会影响其分类性能。针对这两个问题,提出了一种基于冗余度的KNN分类器训练样本裁剪新算法(简记为RBKNN)。RBKNN通过引入训练样本集预处理过程,对每个训练样本进...
作者:范支菊; 张公敬; 杨嘉东 期刊:《青岛大学学报·工程技术版》 2018年第03期
针对SVM中当训练样本数非常多时,分类算法训练阶段的计算量庞大;当训练样本集中存在噪声时,影响训练阶段超平面划分的准确度,导致分类准确率降低等问题,提出了一种基于密度的训练样本裁剪的SVM算法。首先应用密度裁剪算法裁剪掉原始训练样本集中存在的噪声和冗余样本,作为新训练样本集,使用网格搜索算法在新的训练样本集中对SVM参数(C,g)寻优,进行SVM训练并建模,达到分类的目的。实验结果表明,该算法同无样本裁剪的SVM算法相比分...
作者:任朋启; 王芳; 黄树成 期刊:《电子设计工程》 2017年第18期
文本分类技术是文本挖掘技术中的研究热点之一,但是传统KNN分类算法的时间复杂度高,在不均匀密度样本下分类准确率低.针对这些问题,提出一种在不均匀密度样本下的优化KNN算法:IKNN算法.首先选取样本分类不均匀的训练样本,并对其中高密度样本做出相应的裁剪,以提高准确率.然后在此基础上,针对裁剪后的训练样本使用投影寻踪理论,选取更小的、更具代表性的样本库,以降低分类算法的时间复杂度.在此理论基础上,通过实验表明,在大量的训...
作者:熊忠阳 杨营辉 张玉芳 期刊:《计算机应用》 2010年第03期
在文本分类中,训练集的分布状态会直接影响k-近邻(kNN)分类器的效率和准确率。通过分析基于密度的kNN文本分类器训练样本的裁剪方法,发现它存在两大不足:一是裁剪之后的均匀状态只是以ε为半径的球形区域意义上的均匀状态,而非最理想的均匀状态即两两样本之间的距离相等;二是未对低密度区域的样本做任何处理,裁剪之后仍存在大量不均匀的区域。针对这两处不足,提出了以下两点改进:一是优化了裁剪策略,使裁剪之后的训练集更趋于理...
作者:苟和平 景永霞 冯百明 李勇 期刊:《科学技术与工程》 2013年第01期
K最近邻算法(KNN)在分类时,需要计算待分类样本与训练样本集中每个样本之间的相似度。当训练样本过多时,计算代价大,分类效率降低。因此,提出一种基于DBSCAN聚类的改进算法。利用DBSCAN聚类消除训练样本的噪声数据。同时,对于核心样本集中的样本,根据其样本相似度阈值和密度进行样本裁剪,以缩减与待分类样本计算相似度的训练样本个数。实验表明此算法能够在保持基本分类能力不变的情况下,有效地降低分类计算量。
作者:罗贤锋 祝胜林 陈泽健 袁玉强 期刊:《计算机工程与设计》 2014年第11期
为有效提高传统KNN算法(K最近邻算法)在海量数据的分类效率,分析传统KNN算法的分类过程,提出基于K-Medoids聚类的改进KNN算法。利用K-Medoids算法对文本训练集进行聚类,把文本训练集分成相似度较高的簇;根据待分类文本与簇的相对位置,对文本训练集进行裁剪,解决传统KNN算法在文本训练集过大时速度慢的问题。分析与实验结果表明,该裁剪方法能够合理有效地裁剪文本训练集,提高了KNN算法的运行效率和分类能力。