期刊文献+
共找到1篇文章
< 1 >
每页显示 20 50 100
基于AdaBoost的类不平衡学习算法 被引量:11
1
作者 秦孟梅 邱建林 +2 位作者 陆鹏程 陈璐璐 赵伟康 《计算机应用研究》 CSCD 北大核心 2017年第11期3229-3232,3254,共5页
处理类不平衡数据时,少数类的边界实例非常容易被错分。为了降低类不平衡对分类器性能的影响,提出了自适应边界采样算法(AB-SMOTE)。AB-SMOTE算法对少数类的边界样本进行自适应采样,提高了数据集的平衡度和有效性;同时将AB-SMOTE算法与... 处理类不平衡数据时,少数类的边界实例非常容易被错分。为了降低类不平衡对分类器性能的影响,提出了自适应边界采样算法(AB-SMOTE)。AB-SMOTE算法对少数类的边界样本进行自适应采样,提高了数据集的平衡度和有效性;同时将AB-SMOTE算法与数据清理技术融合,形成基于Ada Boost的集成算法ABTAdaBoost。ABTAda Boost算法主要包括三个阶段:对训练数据集采用AB-SMOTE算法,降低数据集的类不平衡度;使用Tomek links数据清理技术清除数据集中的噪声和抽样方法产生的重叠样例,有效提高数据的可用性;使用Ada Boost集成算法生成一个基于N个弱分类器的集成分类器。实验分别以J48决策树和朴素贝叶斯作为基分类器,在12个UCI数据集上的实验结果表明,ABTAda Boost算法的预测性能优于其他几种算法。 展开更多
关键词 机器学习 类不平衡学习 集成学习 SMOTE 数据清理技术
在线阅读 下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部