期刊文献+
共找到3篇文章
< 1 >
每页显示 20 50 100
若干评价准则对不平衡数据学习的影响 被引量:23
1
作者 林智勇 郝志峰 杨晓伟 《华南理工大学学报(自然科学版)》 EI CAS CSCD 北大核心 2010年第4期147-155,共9页
为解决绝大部分传统的以精度准则为优化目标而获得的分类器不适于不平衡数据学习(IDL)的问题,文中通过在支持向量机(SVM)模型上进行"元学习",研究了精度、平衡精度、几何平均、F1得分、信息增益、AUC(ROC曲线下方图面积)以及... 为解决绝大部分传统的以精度准则为优化目标而获得的分类器不适于不平衡数据学习(IDL)的问题,文中通过在支持向量机(SVM)模型上进行"元学习",研究了精度、平衡精度、几何平均、F1得分、信息增益、AUC(ROC曲线下方图面积)以及文中新提出的GAF和GBF等评价准则对IDL的影响.在16个来自UCI的不平衡数据集上进行了仿真实验.对实验结果的统计分析表明:不同准则对分类器性能的影响有显著差异;即便是对于先进的学习方法支持向量机(SVM)而言,若以精度准则最大化选择分类器,那么得到的SVM分类器也容易偏向预测多类;通过在其他准则上优化,能输出纠偏了的SVM分类器,它们的整体性能更好,尤其是在预测少类能力方面;在GAF以及GBF准则上优化所得的SVM分类器具有稳定且良好的性能. 展开更多
关键词 评价准则 不平衡数据学习 支持向量机 GAF准则 GBF准则
在线阅读 下载PDF
极限学习机类不平衡数据学习算法研究 被引量:2
2
作者 唐晓芬 陈莉 《计算机应用研究》 CSCD 北大核心 2018年第10期2990-2993,3002,共5页
针对目前提出的Boosting提升的加权极限学习机算法用各类总分类性能作为算法的优化目标,算法对大类样本具有性能偏向性,而且没有考虑数据中包含噪声及噪点时算法对分类性能的影响,提出基于AdaBoost提升的WELM算法。该算法利用考虑各类... 针对目前提出的Boosting提升的加权极限学习机算法用各类总分类性能作为算法的优化目标,算法对大类样本具有性能偏向性,而且没有考虑数据中包含噪声及噪点时算法对分类性能的影响,提出基于AdaBoost提升的WELM算法。该算法利用考虑各类样本分布不平衡特性的误差计算方式并对误差进行了sigmoid运算,提高了算法的对大类样本和小类样本的识别率及算法的抗噪声能力。通过在15个UCI不平衡数据集进行分析实验,实验结果表明提出的算法具有更好的分类性能。 展开更多
关键词 极限学习 不平衡数据学习 支持向量机 ADABOOST
在线阅读 下载PDF
类别条件噪声下的半监督AUC优化理论与算法
3
作者 姜阳邦彦 许倩倩 +3 位作者 杨智勇 郝前秀 操晓春 黄庆明 《计算机学报》 北大核心 2025年第1期136-155,共20页
现有半监督AUC优化方法通常假设数据标注是准确的。然而在许多实际应用中,研究者往往会同时面临标注量不足和不准确的问题。为此,该文首次尝试在不完整和不准确的数据标注情况下优化AUC指标。具体而言,通过分析,对称替代损失在某些情况... 现有半监督AUC优化方法通常假设数据标注是准确的。然而在许多实际应用中,研究者往往会同时面临标注量不足和不准确的问题。为此,该文首次尝试在不完整和不准确的数据标注情况下优化AUC指标。具体而言,通过分析,对称替代损失在某些情况下可以在半监督问题中具有噪声鲁棒性。在此基础上,该文构建了一个鲁棒半监督AUC优化框架,其导出的经验风险无需估计噪声率。此外,通过紧致泛化上界的分析表明,当模型基于足够大的训练数据集进行学习时,其在未见数据上能够很好地泛化。随后,使用Barrier hinge损失对该框架进行实例化。为加快训练过程,进一步开发了一种加速算法,将损失和梯度估计的复杂度从O(n^(2))降低至O(nlogn),在实验中可获得高达200倍的加速。最后,通过在15个基准数据集上进行实验验证,证明了所提方法的有效性。 展开更多
关键词 半监督学习 AUC优化 标签噪声 二分类问题 不平衡数据学习
在线阅读 下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部